Unidad Académica de Ingeniería Eléctrica Programa de Ingeniería en Comunicaciones y Electrónica Historia y Desarrollo de la Ciencia y la Tecnología “Recolección de trabajos finales”

Maestro: Manuel Haro Macías

Índice
La aviación……………………………………………………………………2 Celulares…………………………………………………………………….24 Comunicación……………………………………………………………….40 Comunicación satelital……………………………………………………..56 Exploración del espacio…………………………………………………….77 El fax…………………………………………………………………………..96 Fibra Óptica………………………………………………………………….112 Grandescientíficos………………………………………………………….185 Internet…………………………………………………………………….....246 Lenguajes de programación……………………………………………….287 Luz neón……………………………………………………………………..309 Medios de transporte………………………………………………………..326 Métodos científicos del siglo XX…………………………………………...344 Motor eléctrico………………………………………………………………..361 Nikola Tesla…………………………………………………………………..370 Proceso de producción de máquinas……………………………………...390 Petróleo……………………………………………………………………….403 Robótica……………………………………………………………………….420 Ropa deportiva………………………………………………………………..449 Sistemas fotovoltaicos……………………………………………………….467 Telescopio…………………………………………………………………….503 Televisión……………………………………………………………………..525 Referencias…………………………………………………………………...556

2

LA AVIACIÓN EN GENERAL
Se entiende por aviación el desplazamiento a través del aire de aparatos mecánicos más pesados que éste, concretamente aviones y helicópteros. Los dirigibles y los globos aerostáticos no se incluyen en este concepto, por tratarse de ingenios que se mantienen suspendidos en el aire por sus propios medios. Por otra parte, se entiende por aviación también la industria y las organizaciones relacionadas con los aviones y helicópteros. En base al uso de los aviones y helicópteros, la aviación se divide habitualmente en tres grandes grupos: Aviación Aviación Aviación militar general comercial

La aviación general comprende una larga lista de usos, como la aviación deportiva, de negocios, de vigilancia, de rescate, de extinción de fuegos, para la agricultura y otros. La aviación comercial consiste en las compañías aéreas, ya sean éstas grandes o pequeñas, en las compañías dedicadas al transporte aéreo de mercancías, así como en las empresas de aero-taxi. La aviación general y la aviación comercial se agrupan a su vez bajo el término de aviación civil, en contrapartida con la aviación militar. Finalmente, la aviación militar comprende todo lo que está relacionado con los vuelos de ataque y de defensa, de reconocimiento y vigilancia, de transporte, de rescate, y otros similares.

Comienzos de la aviación

El primer vuelo con éxito fue precedido de siglos de sueños, estudio, especulación y experimentación. Existían viejas leyendas con numerosas referencias a la posibilidad de movimiento a través del aire. Ciertos sabios antiguos creían que para volar sería necesario imitar el movimiento de las alas de los pájaros o el empleo de un medio como el humo u otro más ligero que el aire. Hacia el siglo V de nuestra era se diseñó el primer aparato volador: la cometa o papalote.

3

En el siglo XIII el monje inglés Roger Bacon tras años de estudio, llegó a la conclusión de que el aire podría soportar un ingenio de la misma manera que el agua soporta un barco. A comienzos del siglo XVI Leonardo da Vinci analizó el vuelo de los pájaros y anticipó varios diseños que después resultaron realizables. Entre sus importantes contribuciones al desarrollo de la aviación se encuentra el tornillo aéreo o hélice y el paracaídas. Concibió tres tipos diferentes de ingenios más pesados que el aire: el ornitóptero, máquina con alas como las de un pájaro que se podían mover mecánicamente; el helicóptero diseñado para elevarse mediante el giro de un rotor situado en el eje vertical y el planeador en el que el piloto se sujetaba a una estructura rígida a la que iban fijadas las alas diseñadas a imagen de las grandes aves. Leonardo creía que la fuerza muscular del hombre podría permitir el vuelo de sus diseños. La experiencia demostró que eso no era posible. Fue una figura muy importante porque aplicó por primera vez técnicas científicas para desarrollar sus ideas. La aviación en el siglo XIX

El desarrollo práctico de la aviación siguió varios caminos durante el siglo XIX. El ingeniero aeronáutico e inventor británico sir George Cayley, teórico futurista, comprobó sus ideas experimentando con cometas y planeadores capaces de transportar un ser humano. Diseñó un aparato en forma de helicóptero pero propulsado por una hélice en el eje horizontal. Sus méritos le llevaron a ser conocido por sus compatriotas como el padre de la aviación. El científico británico Francis Herbert Wenham utilizó en sus estudios el túnel aerodinámico, sirviéndose del flujo del viento forzado en su interior para analizar el uso y comportamiento de varias alas colocadas una encima de otra. Fue además miembro fundador de la Real Sociedad Aeronáutica de Gran Bretaña. Otros personajes interesantes del mundo aeronáutico de la época fueron el inventor británico John Stringfellow y William Samuel Henson, quienes colaboraron al principio de la década de 1840, para fabricar el prototipo de un avión que pudiera transportar pasajeros. El aparato desarrollado por Stringfellow en 1848 iba propulsado por un motor de vapor y arrastrado por un cable y consiguió despegar aunque no pudo elevarse. El inventor francés Alphonse Penaud fabricó un modelo que se lanzaba con la mano e iba propulsado por bandas de goma retorcidas previamente y consiguió en el año 1871 que volase unos 35 metros. Otro inventor francés, Victor Tatin, diseñó un ingenio propulsado por aire comprimido y equipado con un rudimentario tren de aterrizaje de cuatro ruedas. Lo sujetó a un poste central y las dos hélices consiguieron elevar el aparato en vuelos cortos y de baja altura. El inventor británico nacido en Australia, Lawrence Hargrave, desarrolló un modelo de alas rígidas que iba impulsado por paletas batientes movidas por un motor de aire comprimido. Voló 95 metros en 1891. El astrónomo estadounidense Samuel Pierpont Langley fabricó en 1896 un monoplano en tándem impulsado por un motor de vapor cuyas alas tenían una envergadura de 4,6 metros. El aeroplano
4

hizo varios vuelos, recorriendo entre 900 y 1.200 metros de distancia durante un minuto y medio. Subía en grandes círculos; luego, al pararse el motor, descendía lentamente para posarse en las aguas del río Potomac. Se hicieron numerosos esfuerzos para imitar el vuelo de las aves con experimentos basados en paletas o alas movidas por los músculos humanos, pero nadie lo logró. Merecen citarse el austriaco Jacob Degen entre 1806 y 1813, el belga Vincent DeGroof, que se estrelló y murió en 1874 y el estadounidense R. J. Spaulding quien patentó su idea del vuelo empujado por músculos en 1889. Más éxito tuvieron quienes se dedicaron al estudio de los planeadores y contribuyeron al diseño de las alas, como el francés Jean Marie Le Bris, quien probó un planeador con las alas batientes, el estadounidense John Joseph Montgomery y el renombrado alemán Otto Lilienthal. Lilienthal realizó sus experimentos con cometas y ornitópteros pero los mayores éxitos los obtuvo con sus vuelos en planeador entre l894 y 1896. Por desgracia murió en 1896 al perder el control de su aparato y estrellarse contra el suelo desde 20 metros de altura. Percy S. Pilcher, de Escocia, que también había obtenido grandes éxitos con su planeador, tuvo asimismo un accidente mortal en 1899. El ingeniero estadounidense Octave Chanute consiguió en 1896 pequeños logros con sus planeadores de alas múltiples, pero su contribución más notable a la aviación fue su libro sobre los avances aeronáuticos Progress in Flying Machines (1894). Los numerosos experimentos realizados con cometas durante esta época, consiguieron mejorar de forma notable los conocimientos sobre aerodinámica y estabilidad del vuelo. El inventor estadounidense James Means publicó sus resultados en los Aeronautical Annuals de 1895, 1896 y 1897. Lawrence Hargrave inventó en 1893 la cometa en forma de caja y Alexander Graham Bell desarrolló entre 1895 y 1910 diversas cometas en forma de tetraedro capaces de transportar a un ser humano en un pequeño alojamiento. Entre 1890 y 1901 se realizaron numerosos experimentos con prototipos provistos de motor. El más importante fue el de Langley que en 1901 y 1903 probó e hizo volar sin piloto un aeroplano a un cuarto de escala de su tamaño real. Le llamó Aerodrome y fue la primera aeronave más pesada que el aire provista de un motor de gasolina que consiguió volar. El modelo a escala real se terminó en 1903 y realizó dos pruebas que acabaron en desgraciados accidentes. El aviador alemán Karl Jatho intentó en 1903, también sin éxito, volar un modelo motorizado de tamaño real. Los logros conseguidos a lo largo del siglo XIX aportaron los fundamentos necesarios para el éxito de los hermanos Wright, pero los mayores avances se debieron a los esfuerzos de Chanute, Lilienthal y Langley a partir de 1885. En 1903 aún no se habían conseguido la estabilidad y el control necesarios para un vuelo prolongado, pero los conocimientos aerodinámicos y sobre todo el éxito de los motores de gasolina, que sustituyeron a los más pesados de vapor, permitirían que la aviación evolucionase con rapidez.

5

PRIMERA GUERRA MUNDIAL

Cuando estalló la Primera Guerra Mundial ambos bandos todavía consideraban que el avión sólo era adecuado para reconocimientos, al igual que el globo cautivo: un invento alemán que para 1914 ya era conocido y utilizado por ambos bandos, y que se construía en dos partes: la frontal llena de gas y la posterior de aire, a los lados unos alerones extendidos ayudaban a mantener alzado el extremo posterior, mientras que otra "salchicha hinchada" (el timón) curvada alrededor de la parte inferior del globo ayudaba a estabilizarlo. No obstante, a menudo habían movimientos masivos de tropas no observados por los exploradores aéreos (entre ellas las ofensivas alemanas a Rusia en la primavera de 1915, en Verdún en febrero de 1916 y su última ofensiva en el Frente del Oeste en marzo de 1918). Pero las tropas aliadas también aprendieron pronto a desparramarse y ponerse a cubierto al oír el ruido de los motores de un avión, y los partes negativos de los pilotos alemanes que no habían detectado fuerzas enemigas a menudo despistaban seriamente a los estados mayores; esta amplitud de visión hacía al avión particularmente útil donde la guerra era de movimientos. También se empleó ampliamente a los aviones para controlar la navegación, aunque su eficacia quedara restringida por su limitada capacidad de combustible y, por lo tanto, su autonomía igualmente limitada. Por eso el Royal Flying Corps (RFC), fundado en 1912, tenía alas navales y terrestres y no era un comando independiente. La aviación inglesa y la rusa, al comienzo de la lucha, prácticamente podían considerarse como inexistentes, y algo muy semejante acontecía a la de los belgas y austríacos. Pero pronto, en Rusia, el diseñador Igor Sikorski había producido algunos de los biplanos cuatrimotores más afortunados que surcaban el aire. Su desarrollo como aviones militares, sin embargo, se veía obstaculizado por la falta de motores y repuestos. Así en agosto de 1914 había pocos aviones listos para la acción. En el Frente de Oeste, los alemanes tenían unos 180 y unos 20 hidroaviones útiles. El servicio aéreo de marina británica contaba con 39 aviones, de poco valor militar, mientras que la RFC tenía sólo 48 aviones en Francia en agosto. Los franceses podían presentar 136 aviones de los más diversos tipos. La fuerza conjunta británica y francesa era, pues, de unos 185 aviones frente a los 180 alemanes. Alemania y Francia estaban al principio mejor equipadas que Gran Bretaña, que durante los primeros meses tuvo que depender de las fábricas francesas para sus aviones y repuestos. Pero el desarrollo de la observación aérea fue rápido, tanto en técnicas como en refinamiento. Las comunicaciones entre aire y tierra se hicieron al principio mediante luces de colores diversos, más tarde mediante telegrafía sin hilos. También se aplicó la fotografía, ya en septiembre de 1914. Hacía tiempo que se empleaba la fotografía de posiciones y movimientos enemigos, pero daba visiones distorsionadas, puesto que el vulnerable globo no se podía colocar directamente sobre su objetivo.

6

A medida que avanzaba la guerra el reconocimiento se hizo más profesional y amplio. Los primeros informes de los pilotos sobre concentraciones y movimientos enemigos se ampliaron mediante avances técnicos en la fotografía. A menudo se enviaba aviones de artillería para ayudar a los cañones a precisar el alcance de los blancos enemigos, escuadrillas de largo alcance bombardeaban y fotografiaban las concentraciones y fortificaciones enemigas en retaguardia. Debido a que la Primera Guerra Mundial fue en gran medida una guerra de artillería masiva, esta cooperación con la artillería era de gran importancia. El globo cautivo, lleno de gas, era de gran valor a ese respecto, pero también eran vulnerables a los aviones enemigos, pues estaban anclados al suelo y los dos observadores de la barquilla inferior estaban desarmados. Las armas habituales eran pistolas y fusiles, aunque algunos pilotos ingeniosos llevaban consigo un ladrillo o piedra pesada con la esperanza de tirarla a través del frágil fuselaje de algún avión enemigo. En mayo de 1915, los alemanes consiguieron la supremacía aérea, absoluta aunque temporal, con un nuevo artefacto, el llamado engranaje interruptor. Hasta entonces, aunque muchos aviones llevaban ametralladora, al piloto le había resultado imposible disparar hacia delante -la dirección mas obvia y letal- por miedo de destruir su propia hélice. Se diseñaron numerosos expedientes mecánicos para superar este problema, entonces el holandés Anthony Fokker, que diseñó dos de los aviones alemanes más exitosos –el Fokker y el Albatrosdesarrolló el sincronizador o engranaje interruptor, que permitía disparar a través de la hélice, dejando de disparar temporalmente la ametralladora cuando había una hoja justo delante de la boca. Los alemanes fabricaron grandes cantidades de engranaje interruptor, hacia 1915, con un excelente resultado, ya que los cazas Fokker derribaron muchos aviones británicos y franceses con pocas pérdidas propias. El "azote Fokker" obligó a los aliados a replantear su estrategia en el aire. Pronto ellos también tuvieron engranajes interruptores, pero mientras tanto habían desarrollado un método de patrullas ofensivas por el cual los cazas estaban adscritos a escuadrillas específicas con el objeto de destruir a los contrarios detrás de las líneas enemigas, para dejar sin enemigos potenciales los aviones de reconocimiento. Su dominio no duró mucho, pues los alemanes no sólo
7

produjeron monoplanos más elaborados, sino también el sistema de "circo". Cada una de esas escuadrillas estaba dirigida por un "as" hábil, el más famoso de los cuales era Manfred von Richthofen, el "Barón Rojo", quien elegía personalmente a los pilotos de su escuadrilla. Los alemanes trataron de desmoralizar el frente doméstico británico mediante ataques aéreos contra Londres y la costa oriental, pero los aliados tenían dentro de su radio de acción un blanco importante más significativo: el corazón industrial de Alemania, el Ruhr y el Sarre, donde se fabricaba la mayor parte de la munición. Sin embrago, como observó Basil Liddell Hart: "La inmensa oportunidad de invalidar el suministro de municiones a los ejércitos alemanes se sacrificó en favor de combates aéreos sobre el frente de trincheras". No obstante, aunque tardíamente, los aliados habían llegado a comprender el potencial mortal del arma aérea. Ahora, por primera vez, se podía emplear a los aviones como fuerza separada, autónoma. Así, cuando el frente aliado fue destrozado por la última ofensiva alemana, en marzo de 1918, todas las escuadrillas británicas y francesas que estuvieran libres se combinaron para atacar conjunta y coordinadamente a los alemanes en avance. La fuerza aérea tuvo incluso un papel más importante cuando, en otoño, el ataque final alemán se vio destruido por los contraataques masivos aliados. El daño material fue limitado, pero la producción industrial alemana efectivamente sufrió, y el efecto que tuvo sobre la población civil ya cansada de la guerra redujo más aún la moral. Esta nueva concepción de la guerra (derrotar al enemigo no mediante un ataque frontal sino destruyendo su corazón industrial) se aplicaría con efectos terribles en conflictos futuros.

SEGUNDA GUERRA MUNDIAL

Durante los años treinta las compañías aeronáuticas francesas pusieron en vuelo 150 modelos diferentes de aviones militares, muchos de ellos se destacaron por su feo aspecto, pero a partir de 1935 los diseñadores galos fueron creando cada vez diseños más competitivos. El único caza disponible por la Armée de l´Air (la fuerza aérea francesa) en gran número durante 1939 fue el M.S.406, que cuando se enfrentó al Bf 109E resultó un fracaso por su poca velocidad. Dejando a un lado los magníficos prototipos de ingenieros tales como Vernisse y Galtier en el Arsenal de l´Aéronautique, que no llegaron a los escuadrones, se consideró que el mejor caza francés de la Segunda Guerra Mundial fue el Dewoitine 520. L ´Armée de l´Air de 1939 estaba en condiciones desastrosas. Poseía sólo 1300 aparatos, casi todos tenían cinco o hasta diez años de edad. Los únicos bombarderos franceses modernos y eficaces eran los bimotores Lioré y Oliver LeO 451 y Potez 633. Del primer tipo sólo cinco ejemplares estaban preparados el día que Francia entró en guerra, el 3 de septiembre de 1939. Los motores de que se disponía no eran lo suficientemente potentes para hacer que los cazas franceses demostraran ser adecuados cuando llegaba la prueba final. Se consideró que el mejor caza francés de la Segunda Guerra Mundial fue el
8

Dewoitine 520, pequeño y ligero, lo suficientemente ágil para ser eficaz.

Alemania En 1939 la aviación alemana (Luftwaffe) era la más potente y moderna fuerza aérea del mundo. Disponía en el mismo año de 4800 aparatos de guerra. La producción mensual alemana era de 1100 aviones, casi el doble de la industria británica. Los fundamentales cazas en servicio eran dos: el Messerschmitt 109, monomotor de brillantísimo rendimiento, el más logrado de los aparatos alemanes, y el Messerschmitt 110, después bimotor, un caza pesado específicamente adaptado para la caza nocturna. Con aparatos de tal calidad, y no sólo gracias a su número, la Alemania de Hitler estaba segura de ganar la guerra, aunque casi todos terminarían fracasando, porque la táctica y la estrategia de la guerra aérea cambiarían mucho más de prisa de lo que suponían los altos jefes de la Luftwaffe. Cuando fue posible, la Alemania nazi tuvo más de un tipo de avión para cada misión de combate, así como nuevos diseños preparados para convertirse en la siguiente generación. Si algún caza tuvo un comienzo desalentador éste fue el Messerschmitt Bf 109 (que realizó su primer vuelo en mayo de 1935), que sufrió muchas quejas. Pero en vez de desaparecer de la escena aeronáutica, no sólo fue el caza seleccionado por la Luftwaffe en 1937, sino que virtualmente fue su único caza entre 1937 y 1942. A finales de 1944 no sólo estaba entrando en servicio en grandes cantidades el birreactor Me 262, sino que la Luftwaffe también utilizaba el interceptador Me 163, impulsado por un motor cohete que le daba una gran velocidad de trepada aunque carecía de alcance y autonomía. Ambos eran excelentes máquinas en el aire, aunque sufrieron diversos problemas que restringieron su valor, y llegaron demasiado tarde para evitar la derrota. Gran Bretaña La Royal Air Force, la aviación británica, era todavía débil al comienzo del
9

conflicto, pero el plan de modernización de las escuadrillas (los grupos aéreos) progresaban a ritmo acelerado. En primer línea estaban los bombarderos de altura, todos bimotores, menos veloces que sus correspondientes alemanes, pero bastante más adaptados a los fines estratégicos; aunque, por el momento, eran pocos. Algunos destacamentos de caza tienen ya adjudicado el inmejorable Spitfire, uno de los primeros aviones británicos en adoptar la construcción con los modernos revestimientos resistentes, y dotado de alas elípticas, poco común, que le permitía descender en picado más rápidamente que cualquier otro avión. Sin embargo, la importancia del Spitfire residió en su increíble capacidad de desarrollo, ya que fue capaz de recibir más potencia, más combustible, cañones, bombas y equipo naval, e incluso llevó barriles de cerveza con destino a las tropas en las cabezas de playa de Normandía. Polonia La aviación polaca disponía de unos centenares de aviones de producción nacional. Sin embargo, Polonia fue invadida en cuestión de semanas o días por los ejércitos alemanes y pocos de sus aparatos sobrevivieron. El país dió una imagen muy pobre. A mediados de los años treinta, su fuerza aérea había sido una de las más potentes y mejor entrenadas de Europa, y su despliegue de regimientos de caza equipados con el P.11 hubiera podido hacer frente a cualquier agresor. Sin embargo, en 1939 esos cazas estaban pasados de moda. Hubo realmente un sustituto, el PZL P.50 Jastrzab, pero sólo existía un prototipo cuando los alemanes invadieron Polonia, y fue abatido por la artillería antiaérea al confundirlo con un avión alemán. Australia La Commonwealth de Australia, separada geográficamente de sus enemigos potenciales, gastó sólo simbólicas cantidades en defensa y no tuvo prácticamente capacidad de fabricar aviones de combate hasta justo después del inicio de la Segunda Guerra Mundial. Quizás en parte por la iniciativa del comandante de ala Lawrence Wackett, quien formó la Tugan Aircraft y posteriormente, en 1936, registró la Commonwealth Aircraft Corporation, germinó la semilla de una industria aeronáutica. Unión Soviética Tan en secreto trabajaron los soviéticos que el mundo comenzó a conocer sus aviones a través de las fotografías editadas por los alemanes, durante sus invasiones. Los dos únicos cazas que se pensaba que existían eran el biplano Chato y el monoplano Rata, y estos nombres eran los apodos con los que los bautizaron los pilotos de Franco durante la Guerra Civil española. No fue hasta los años sesenta cuando los estudiosos del potencial aéreo soviético comenzaron a reunir las piezas de la impresionante historia de lo que habían conseguido los burós de diseño (OKB) soviéticos. Los Chato y Rata (en realidad los I-15 e I-16) habían sido los cazas predominantes en 1941, pero también estaban en producción aparatos mucho mejores. Los LaGG, MiG y Yak estaban destinados a
10

ser fabricados en cantidades fantásticas a pesar de la necesidad imperiosa del otoño de 1941 de evacuar la mayoría de las fábricas e instalar nuevas cadenas de montaje más al este. Gradualmente y con un coste horroroso, el control del espacio aéreo en el frente del Este fue pasando a manos soviéticas. En los combates tomaron parte algunos cazas enviados desde EE.UU. y Gran Bretaña, y también algunos pilotos no soviéticos. Estados Unidos Geográficamente alejados de cualquier enemigo potencial, los EE.UU. dedicaron únicamente sumas modestas a los aviones de combate hasta que las guerras en China, España y luego Europa forzaron al país a despertarse, a finales de los años treinta. En esta época, a pesar de tener una industria de primera línea en capacidad técnica, tecnológica y potencial de producción, la nación no se había volcado en el diseño de cazas y no tenía nada similar al Bf 109E o al Spitfire. En noviembre de 1939, cuando la North American Aviation fue requerida por Gran Bretaña para que construyera el Curtiss P-40 para la RAF, el presidente de la compañía, "Dutch" Kindelberger, replicó que la NAA podía diseñar un caza mucho mejor y partiendo de cero. El P-40, aunque mediocre, era algo seguro, mientras que NAA no tenía experiencia en la construcción de cazas. El NA-73 resultante tenía un motor Merlin. Llamado Mustang, el avión resultó ser una obra maestra. Un área donde Estados Unidos demostró su hegemonía fue en la de los aviones navales. El Grumman F4F mantuvo a solas el poderío sobre los océanos hasta que en 1943 hicieron su aparición los formidables F6F y F4U. Gracias a sus potentes motores podían mover sus pesadas células mucho mejor que sus pequeños y ligeros enemigos. Italia En los años treinta Italia se encontraba a la cabeza en la fabricación de motores avanzados de combustión interna, tenía un instinto especial para el diseño aeronáutico y sus pilotos acrobáticos eran excelentes. Durante la guerra el potencial aéreo italiano fue rápidamente considerado por los británicos como un bienvenido descanso en la dura tarea de combatir contra la Alemania nazi. El caza italiano más numeroso era el biplano C.R.42, muy agradable de pilotar pero ampliamente superado por Hurricane y Spitfire. Además de los tipos principales, Italia produjo también numerosos cazas menores, pero hacia 1943 ya había perdido tanto la capacidad como el deseo de lucha y casi ninguno de estos excelentes cazas llegó a ser fabricado en serie. Japón Como en el caso de la Unión Soviética, el desarrollo de aviones de caza en Japón era casi completamente desconocido para los países occidentales en el momento del ataque a Pearl Harbor, en diciembre de 1941. En lugares tales como Londres y Washington creían que los japoneses sólo podían hacer copias inferiores de los aparatos occidentales y que sus fuerzas aéreas y navales estaban equipadas casi
11

pero los pedidos de aviones civiles se incrementaron considerablemente. vuelos supersónicos. que lo dotó de líneas muy poco ortodoxas que recuerdan en 12 . Propulsión a chorro.por completo con biplanos con tren de aterrizaje fijo. De nuevo las líneas aéreas nacionales e internacionales norteamericanas rompieron las plusmarcas anteriores en todos los tipos de tráfico y consiguieron sustanciales mejoras con respecto a 1941. sino que en alguna medida fueron considerados como casi invencibles por ambos bandos. Las compañías aéreas dispusieron de aviones más grandes y mas rápidos con adelantos como las cabinas presurizadas. VTOL) y cohetes espaciales (véase Aeroplano. Fue diseñado por Burt Rutan. En diciembre de 1986 el avión ligero experimental Voyager completó con éxito el primer vuelo alrededor del mundo sin escalas y sin repostar. de los nuevos metales. nuevas plantas de potencia y avances electrónicos trajeron el desarrollo de los aviones turborreactores de alta velocidad. La experiencia obtenida en la fabricación de aviones militares durante la guerra fue utilizada en la construcción de aviones civiles nada más terminar las hostilidades. El resultado inevitable fue que cuando los pilotos aliados se enfrentaron con los cazas japoneses. Exploración del espacio).000 aviones en contraste con la producción máxima de 1941 que fue de 6. POSGUERRAS En el año 1945 la producción de aeroplanos militares en Estados Unidos se redujo drásticamente. Al finalizar el año.844. Se redujeron las tarifas tanto de pasaje como de carga y en 1945 volvieron a operar todos los servicios comerciales internacionales. que creció a niveles desconocidos hasta entonces gracias a la repentina prosperidad de la posguerra. estos últimos no representaron solamente una sorpresa grave y desagradable. Los experimentos en el campo del diseño aerodinámico. Se mejoraron los aeropuertos. los pronósticos meteorológicos y las ayudas a la navegación fueron más eficientes y aumentó la demanda pública de transporte aéreo de pasaje y carga. Las máquinas japonesas tenían una célula muy ligera y escasa protección: se había primado la maniobrabilidad a toda costa. los fabricantes tenían contratos para construir 40. aviones cohete experimentales. aviones de despegue corto o vertical (STOL. diseñados para vuelos transoceánicos.

El avión iba provisto de dos motores. por lo general de líneas regulares.3 km/h. El concepto de aviación militar implica la utilización de las aeronaves (aviones y helicópteros) con fines bélicos.254 kilómetros en 9 días. duplicando el de distancia que permanecía desde 1962 en 20. de transporte.420 kilogramos y cargaba 4. 3 minutos y 44 segundos. con sede en Montreal (Canadá). pero hasta 1947 no se creó el primer organismo adecuado: la Organización de la Aviación Civil Internacional (OACI). así como los sistemas de control y seguimiento de estos. y volaron 40. El gran desarrollo de la aviación a escala mundial ha obligado a todos los países a establecer leyes y regulaciones que permitan un eficiente y seguro tráfico aéreo y a firmar convenios y protocolos internacionales como el de Tokio en 1963 o el de La Haya en 1973. Ya en 1889 se efectuaron varias conferencias para resolver los problemas internacionales originados por la aviación.500 litros de combustible distribuidos en 17 depósitos. para fines bélicos se remonta a la Quimera montando su caballo alado de vehículos aéreos creados por el combate desde el aire como ventaja 13 . Si bien aquí no hay presencia hombre. a una velocidad media de 186. se vislumbra ya el concepto del táctica. unidas en este organismo para resolver sus problemas comunes.algunos aspectos a un catamarán. de rescate. Una vez consumidos. La aviación militar abarca también todo lo que está relacionado con los vuelos de ataque y de defensa. adscrita a la ONU. también con sede en Montreal y que agrupa a más de 100 empresas de transporte aéreo. La Aviación Militar La aviación militar comprende los medios materiales y humanos que conforman la fuerza aérea de una nación. ya sea para atacar al enemigo como para brindar apoyo a las fuerzas propias. Los pilotos fueron Dick Rutan (hermano de Burt) y Jeanna Yeager.169 kilómetros. el delantero para despegar maniobrar y aterrizar y el posterior para el vuelo de crucero. cuando Belerofonte mata a la Pegaso. de reconocimiento y vigilancia. Otra organización que surge a partir de la iniciativa de las compañías aéreas es la Asociación Internacional del Transporte Aéreo (IATA). su peso al aterrizar era de 840 kilogramos. El origen del empleo de las aeronaves mitología. y otros similares. dentro de un marco táctico y estratégico dado. En la actualidad existen en la mayor parte de las naciones leyes sobre la navegación aérea que junto con otras medidas han llevado a este medio de transporte a convertirse en uno de los más seguros y eficientes. Este vuelo estableció una nueva plusmarca de distancia y tiempo en el aire. Los materiales eran de plástico ligero por lo que su peso al despegar era tan solo de 4.

durante la batalla de Fleurus. la primera vez que se utilizan aeronaves para realizar operaciones militares (aunque no de combate) fue en 1794. A veces se los denomina "cazas de ataque" o incluso se los incluye en la simplificación del término "cazas". son aeronaves específicamente diseñadas para destruir objetivos enemigos en la superficie. pero en cambio no son capaces de luchar un "dogfight" (un combate aéreo). mientras que los cazas de ataque tienen como prioridad el ataque al suelo. tanto en su forma y categoría como en sus misiones y objetivos. A pesar del enorme potencial de estos aparatos para las labores de observación y reconocimiento en el campo de batalla. Los aviones de ataque. Podemos encontrar aviones con motor de pistón. conviene señalar que esto no priva a los aviones de ataque de poder portar y disparar misiles aire-aire como precaución defensiva en caso de ser interceptados por el enemigo. cuando el ejército francés emplea globos para observar a las fuerzas austríacas. ya que los primeros sólo combaten contra otras aeronaves.Estrictamente. así también como el potente F-15E Strike Eagle. y los segundos cumplen misiones mixtas de combate aéreo y ataque a superficie. tuvieron una difícil historia operacional. Sin embargo. tales como el A-1 Skyarider de apoyo cercano y el IA-58 Pucará de misiones COIN (contrainsurgencia). Lo cierto es que la categoría de aviones de ataque contiene aeronaves muy diversas. De hecho. tal como su nombre lo indica. pues el mismo Napoleón los desestimó como instrumentos valiosos para la guerra. tanto terrestre como marítima. que si bien 14 . pero no se debe confundirlos con los aviones de caza-intercepción o con los cazabombarderos. la mayoría de los aviones de ataque son capaces de derribar otras aeronaves llegadas el caso. Aviones de ataque Avión de ataque a tierra estadounidense A-10 Thunderbolt II.

Su-25 Frogfoot. en cambio. tácticos. Por lo tanto. equipos de contramedidas electrónicas para ser menos vulnerables a las armas enemigas y potentes motores que puedan volar bajo y lento cuando sea necesario (para identificar y apuntar a los objetivos) y que sean capaces de soportar el peso extra de armas y combustible. Los bombarderos atacan objetivos relativamente grandes (no necesariamente en tamaño pero sí en importancia estratégica) y comúnmente vuelan desde bases lejanas y a gran altura. combatiendo a quemarropa contra las defensas del enemigo. deben estar equipados con un fuerte blindaje tanto en el fuselaje como en los motores. 15 . es decir. Tampoco se debe confundir a los cazas de ataque con los bombarderos. Se trata de aparatos capaces de ejecutar misiones imposibles para los demás. ya que éstos últimos poseen objetivos y misiones diferentes. En conclusión. A-10 Thunderbolt. aunque generalmente es considerado un avión de ataque. lo que define a un avión de ataque es que su principal misión (aunque no sea la única) es el ataque a objetivos en superficie. por lo qué técnicamente es un cazabombardero. armas inteligentes que puedan ser colocadas con precisión al primer disparo. ya que son relativamente lentos. cómo el A-10 Thunderbolt y el Su-25 Frogfoot.es especialista en misiones de ataque conserva la capacidad de ataque combate aire-aire del modelo F-15C. y operan desde el mismo teatro de operaciones en misiones a baja cota. los cazas de ataque se ocupan de objetivos más pequeños. para evitar radares y defensas anti-aéreas. Ejemplos de aviones de ataque: Contra-insurgencia o contraguerrilla: IA-58 Pucará. Aviones de ataque puro: A-1 Skyraider. OV-10 Bronco. tenemos los aviones de ataque puro. además. grandes y vulnerables.

que empleará los medios antiaéreos y los aviones caza de su sistema de defensa para evitar el ataque. 16 . teniendo muchas veces para ello que adentrarse en espacio aéreo dominado por el enemigo. Panavia Tornado IDS Bombarderos Bombardero estratégico estadounidense B-52 Stratofortress. Los bombarderos son aviones diseñados para transportar una carga bélica determinada y lanzarla sobre un objetivo.Aviones especialistas en ataque. ya sea en tierra o en el mar. pero que conservan capacidades de caza: F-15E Strike Eagle.

Los bombarderos no se diseñaron para enfrentarse directamente con otras aeronaves y se clasifican de acuerdo con la capacidad en peso en armas que pueden transportar. estos pueden ser ópticos o electrónicos. B-2. Ejemplos de bombarderos son: B-1 Lancer.Los bombarderos están dotados de bodegas y/o puntos de anclaje externos donde transportan la carga que puede ser bombas o también misiles crucero. Conjugando la capacidad de transporte con el alcance. se distinguen bombarderos ligeros. Tu-22M. se puede además clasificar a los bombarderos como convencionales o estratégicos. medianos y pesados. Así. B-52. Aviones de caza 17 . estos últimos cuando suponen una amenaza para una nación potencialmente enemiga. etc. de acuerdo con designaciones muchas veces arbitrarias. y deben contar con medios para apuntar el lanzamiento. Tu-160. convirtiéndose en un elemento disuasorio de primer orden.

etc. F-15. el cual comienza en el Estado Mayor de su fuerza aérea y abarca todos los medios de detección y neutralización de la amenazas que puedan presentarse en el espacio aéreo propio. Aquí conviene diferenciar entre los aviones caza-interceptores "livianos" y los "pesados". Mirage IIIC (no confundir con la versión IIIE). por último. Se denominan "caza" o "caza-interceptores" a aquellas aeronaves concebidas. término que en inglés significa literalmente "pelea de perros". armadas y utilizadas para la búsqueda y destrucción de las aeronaves del enemigo. Los primeros son más pequeños y livianos. ya que su misión principal consiste en defender el espacio áereo propio (Mirage III. ya que su función es "cazar" a otras aeronaves. diseñadas. Por tanto. en realidad. F-106.etc. Ejemplos de aviones caza-interceptores son: F-102. De ahí la denominación. es esencial que entre sus características figure poder emplear pistas de reducidas dimensiones. Su-27. F-22). tener la capacidad de portar y disparar munición para el combate aire-aire. F-14 (aunque la Armada de los Estados Unidos lo equipó luego con bombas). y. del inglés: Patrulla Aérea de Combate) y del dogfight. BAC Lightning. F-22 (actualmente re designado "F-22A" ya que se le agregó la capacidad de portar bombas). F-102. por eso se los llama también cazas de superioridad aérea (Su-27. BAC Lightning. mientras que los segundos deben adentrarse en el espacio aéreo del enemigo para arrebatárselo. F-106 Delta Dart. MiG-23. poseer potencia suficiente para ganar altura en poco tiempo. Los aviones caza tienen la función de desplegarse para defender puntos estratégicos en caso de que el enemigo envíe sus aviones para atacarlos. el último eslabón del sistema de defensa aérea de un determinado país.). así como para la defensa del espacio aéreo propio. poseer agilidad y maniobrabilidad para el combate cercano.Caza de superioridad aérea estadounidense F-22 Raptor. MiG-23. y que hace referencia al combate cerrado entre aviones. así como una gran velocidad final. equipadas. Un avión caza es. contar con medios electrónicos (como el radar) para detectar y poder atacar al adversario. El avión de caza es el encargado de patrullar el espacio aéreo propio en las llamadas CAP (Combat Air Patrol. 18 .

Como se ven. o construidas por ingenieros. operacional y estratégico sobre pistas no preparadas. normalmente fuera de las rutas de vuelo comerciales en espacio aéreo no controlado. los aviones de transporte militar fueron usados para desplegar fuerzas aerotransportadas durante la segunda Guerra Mundial y remolcar planeadores militares. la mayoría de las veces tanto los fabricantes como los gobiernos clientes de los mismos. terminan optando por los cazabombarderos. Originalmente derivados de bombarderos. Las aeronaves de transporte militar son típicamente aeronaves de carga de ala fija o giratoria que son usadas para enviar tropas. debido a su mayor relación costo-beneficio. Aeronaves de transporte logístico Avión de transporte militar español CASA C-295. Algunas aeronaves de transporte militar están diseñadas para desempeñar múltiples misiones como reabastecimiento en vuelo y transporte táctico. Helicópteros militares 19 . armamento y otro equipamiento militar a través de distintos métodos a cualquier lugar de operaciones militares alrededor de la superficie del planeta.

También son utilizados para complementar a helicópteros más ligeros. cohetes. en misiones de reconocimiento armado. los helicópteros de ataque tienen dos cometidos principales: el primero.Helicóptero de ataque estadounidense AH-64 Apache. tales como infantería. vehículos blindados y estructuras del enemigo. como el OH-58 Kiowa. Actualmente. y misiles como el AGM-114 Hellfire o el Spike ER. aunque normalmente como medida de autoprotección. ametralladoras. Muchos helicópteros de ataque también tienen capacidad para llevar misiles aireaire. El armamento usado en los helicópteros de ataque pueden incluir cañones automáticos. y el segundo. Aeronaves de reconocimiento 20 . Un helicóptero de ataque es un helicóptero militar específicamente diseñado y fabricado para portar armamento dedicado a atacar objetivos terrestres. destruir vehículos acorazados y mecanizados del enemigo en el marco de misiones antitanque. proporcionar apoyo aéreo cercano directo y preciso a las unidades terrestres.

y helicópteros. aeroplanos con hélices propulsoras. Aviones de combate polivalentes 21 .Aeronaves experimentales En la actualidad hay muchas clases diferentes de aeronaves: aviones de propulsión a chorro. Todas estas aeronaves tuvieron que ser probadas para asegurarse de que fueran seguras.

sirve como plataforma de ataque al suelo. El cazabombardero es el principal avión de combate con que cuentan las fuerzas aéreas de todo el mundo ya que es un sistema de armas muy flexible. asumiendo además tareas anti buque. supresión de defensas. pudiéndose emplear. por razones presupuestarias. Ejemplos de cazabombarderos son: F-4. Aviones supersónicos 22 . MiG-23B Flogger-F. etc. optando por aeronaves ultimación. MiG-29. de guerra electrónica. tanto para tareas de vigilancia del espacio aéreo como para misiones de ataque a superficie de objetivos tácticos. ya que muchas veces son versiones con capacidad aire-suelo de los mismos. indistintamente.Cazabombardero polivalente ruso-indio Sujói Su-30MKI. Su-30. F-18. F-16. etc. F-35. reconocimiento. En general. pocas naciones pueden darse el lujo de poseer un avión distinto para cada función. De hecho. se los denomina simplemente cazas. F-15E Strike Eagle. El cazabombardero es un avión caza que además de poder asumir la función de defensa aérea. y descienden de los cazas puros o cazainterceptores.

Existen muchos aviones militares supersónicos. Concorde Mach 1 AVIONES MILITARES MODERNOS Los aviones militares modernos se encuentran entre los productos más sofisticados y costosos del siglo 21. pero solo se han fabricado 2 aviones supersónicos de pasajeros (también llamados SST):el ruso Tu-144 y el Concorde. pero fue retirado en 1978. que incluyen una proa abatible que se baja durante el despegue y el aterrizaje para mejorar la visibilidad de la cabina de mando. El Tu-144 tenía una velocidad máxima mayor que el Concorde. Sus ruidosos motores turborreactores con postquemador le capacitan para transportar 100 pasajeros a una velocidad de crucero de MACH 1 entre 15000/18000 metros de altitud. Estos perfeccionamientos técnicos capacitan a los cazas actuales a entrar en combate con adversarios que se encuentran fuera de su alcance visual. Unos pocos aviones militares. Se caracteriza por muchas innovaciones. radar y sensores pasivos e infrarrojos. o expansión. Los bombarderos transportan una enorme carga de armamento y suficiente combustible para vuelos de largo alcance. que es percibida como un "estampido sónico". y también el bombeo de combustible y entre los tanques de compensación delanteros y traseros para ayudar a estabilizar el avión. Las cazas necesitan más controles operados por computadora para su maniobrabilidad.Los aviones supersónicos vuelan a mayor velocidad que el sonido (MACH 1). El concorde tiene un fuselaje estrecho y corta envergadura de alas para reducir la resistencia durante el vuelo supersónico. sus potentes motores y eficaces armas aire-aire. Cuando un avión rebasa la velocidad de MACH 1 se produce una onda de choque. producido conjuntamente por franceses y británicos. como el tornado y el F-14 23 . después de solo 6 meses en servicio. La mayoría de los cazas modernos también disponen de misiles guiados. El Concorde ha permanecido en servicio desde 1976. el método utilizado para deshacerse de los tanques de combustible ya vacíos es el de desprender dichos tanques en pleno vuelo.

LOS AVIONES DEL FUTURO Gracias al efecto combinado de los nuevos materiales y del uso de la informática. Los bombarderos anteriores. Durante el despegue y el aterrizaje sus alas están completamente extendidas. toda una revolución en la ingeniería aeroespacial. Uno de los grandes descubrimientos de la aviación moderna ha sido la construcción y desarrollo de los helicópteros tanto en el ámbito militar como civil. 24 .TOMCAT. al mismo tiempo que su ancho y longitud podrán variar hasta un 50%. pero para vuelos de alta velocidad y ataques a bajo nivel las alas son pivotadas hacia atrás. Una reciente innovación técnica es el bombardero "STEALTH" (el furtivo) que está diseñado para absorber o desviar el radar enemigo y no ser detectado. como el Tornado. utilizan radares de seguimiento del terreno para volar tan cerca del suelo que impiden su detección por el radar enemigo. Utilizará alas aéreas elásticas que se tensarán como los músculos y se juntarán en vuelo. el avión del futuro imitará cada vez más el vuelo de los pájaros. disponen de alas de flecha variables (oscilante).

trabajar. el hecho de vivir. Se denomina celular debido a las antenas repetidoras que conforman la red. si bien existen redes telefónicas móviles satelitales. Aunque su principal función es la comunicación de voz. Su principal característica es su portabilidad. ir a la facultad. podrá funcionar en una parte u otra del mundo. 25 . ha aumentado de manera notable en los últimos años. ha generado preocupación en los usuarios. Una característica actual es el hecho que los sistemas de comunicaciones inalámbricos se encuentran ampliamente distribuidos dado su ubicuidad. En la actualidad se calcula que en todo el mundo existen aproximadamente 200 millones de usuarios. este aumento creciente en el uso de esos servicios públicos (aunque en su mayoría son prestados por empresas privadas). FUNCIONAMIENTO La comunicación telefónica es posible gracias a la interconexión entre centrales móviles y públicas. Esta demanda creciente de la comunicación celular ha sido necesariamente acompañada por la instalación de una red de estaciones base de antenas para poder recibir y para enviar las señales adecuadas a esas comunicaciones. su rápido desarrollo ha incorporado otras funciones como son cámara fotográfica. acceso a Internet. Así. que permite comunicarse desde casi cualquier lugar. ha generado al mismo tiempo la preocupación sobre los potenciales efectos indeseados para la salud. TELÉFONO MÓVIL O CELULAR El teléfono móvil es un dispositivo inalámbrico electrónico que permite tener acceso a la red de telefonía celular o móvil.Celulares El uso de los teléfonos celulares. agenda. prestando servicios incluso en zonas remotas. La telefonía móvil consiste en la combinación de una red de estaciones transmisoras-receptoras de radio (repetidores. ir a la escuela o trabajar en el último piso de un edificio cuya azotea se encuentra poblada de dispositivos de comunicación. Según las bandas o frecuencias en las que opera el móvil. como el teléfono convencional. reproducción de vídeo e incluso GPS y reproductor mp3. estaciones base o BTS) y una serie de centrales telefónicas de conmutación de 1er y 5º nivel (MSC y BSC respectivamente). cada una de las cuales es una célula. que posibilita la comunicación entre terminales telefónicos portátiles (teléfonos móviles) o entre terminales portátiles y teléfonos de la red fija tradicional.

puede transmitir hasta 5 millas. En zonas muy densamente pobladas o áreas con muchos obstáculos (como ser edificios altos). Sólo uno puede hablar al tiempo. puede manejar a través de toda la ciudad y mantener la conversación todo el tiempo.Los teléfonos celulares. este estándar estableció el concepto de dos portadores en cada mercado. aunque pueden llegar a separarse por más de 35Km en zonas rurales. Un teléfono celular es un dispositivo dual. que viajan a través del aire. Las estaciones de base se separan entre 1 a 3 Km. Las frecuencias de transmisión y recepción de cada canal de voz están separadas por 45 MHz. Alguien que utiliza un teléfono celular. He aquí cómo funciona. Este permite que dos personas se comuniquen utilizando la misma frecuencia. ambos transmisores utilizan la misma frecuencia. Las células se imaginan como unos hexágonos en un campo hexagonal grande. Un par de frecuencias (una para enviar y otra para recibir) son usadas para proveer un canal dual por teléfono. Siendo un sistema de comunicación telefónica totalmente inalámbrica. El teléfono celular estándar de la primera generación estableció un rango de frecuencias entre los 824 MHz y los 894 para las comunicaciones analógicas. cada una con una amplitud de 30 KHz. las células pueden concentrarse en distancias cada vez 26 . el tamaño de las células puede variar mucho dependiendo del lugar en que se encuentre. Esto es lo que permite que millones de usuarios utilicen el servicio en un territorio amplio sin tener problemas. Para entender mejor cómo funcionan estos sofisticados aparatos puede ayudar compararlos con una radio de onda corta (OC) o con un walkie-talkie. En un radio simple. no dejan de ser radio transmisores personales. Un radio OC es un aparato simple. debido a que tiene un poder mucho más alto. Una radio OC tiene 40 canales. Un walkie-talkie puede transmitir hasta quizás una milla. Se puede dividir un área (como una ciudad) en células. siendo recibidas y transformadas nuevamente en mensaje a través de antenas repetidoras o vía satélite. Cada portador también tiene 21 canales de datos para usar en otras actividades. Estos teléfonos también operan con “células” (o “celdas”) y pueden alternar la célula usada a medida que el teléfono es desplazado. los sonidos se convierten en señales electromagnéticas. Una radio OC. Cada célula es típicamente de un tamaño de 10 millas cuadradas (unos 26Km2). Un teléfono celular puede utilizar 1664 canales. Para enfrentar la competencia y mantener los precios bajos. conocidos como portadores A y B. en zonas urbanas. por sofisticados que sean y luzcan. La genialidad del teléfono celular reside en que una ciudad puede ser dividida en pequeñas "células" (o celdas). A cada portador se le da 832 frecuencias de voz. y una segunda frecuencia aparte para escuchar. así que sólo una persona puede hablar al tiempo. que permiten extender la frecuencia por toda una ciudad. como este: Sin embargo. Las células son las que dan a los teléfonos celulares un gran rango. esto quiere decir que utiliza una frecuencia para hablar. Las células le dan a los teléfonos un rango mucho mayor a los dispositivos que lo comparamos.

Con la transmisión digital. Debido a que los teléfonos celulares y las estaciones de base utilizan transmisores de bajo poder. Muchos teléfonos celulares tienen 2 fuerzas de señal: 0. Cada célula tiene una estación base que consta de una torre y un pequeño edificio en donde se tiene el equipo de radio.6 Watts y 3 Watts (como comparación. por lo que algunos edificios tienen su propia "microcélula. más las seis celdas que la rodean en un arreglo hexagonal. la mayoría de los radios de onda corta transmiten a 5 Watts). una celda. Dejando entonces a cada célula aproximadamente los 59 canales disponibles nombrados anteriormente. Cada celda en un sistema análogo utiliza un séptimo de los canales de voz disponibles. A su vez aumenta en forma considerable el tiempo en que se puede usar el teléfono entre carga y carga de la batería. Por ejemplo el sistema digital TDMA puede acarrear el triple de llamadas en cada celda. La estación base también transmite a bajo poder. puede de todas formas extrapolarse directamente. el número de canales disponibles aumenta. Los transmisores de bajo poder tienen 2 ventajas: El consumo de energía del teléfono. en cualquier celda pueden hablar 59 personas en sus teléfonos celulares al mismo tiempo. De esta forma. Si bien los números pueden variar dependiendo de la tecnología usada en el lugar. que normalmente opera con baterías. las cantidades sirven para mostrar cómo funciona esta tecnología. en un sistema analógico. Algunas tecnologías. Cada célula utiliza un séptimo de los 416 canales duales de voz. Los teléfonos celulares poseen unos transmisores de bajo poder dentro de ellos. como los PCS (Personal Communication Services)." Los subterráneos son típicos escenarios donde una microcélula se hace necesaria. que en caso de tratarse de una generación más moderna. Esto significa que bajo poder requiere baterías pequeñas. requieren células muy cercanas unas de otras debido a su alta frecuencia y bajo poder en el que operan. alrededor de 168 canales disponibles simultáneamente. 27 . Microcélulas pueden ser usadas para incrementar la capacidad general de la red en zonas densamente pobladas como ser los centros capitalinos. es relativamente bajo.menores. a su vez. Los edificios pueden. Esta configuración puede verse en forma gráfica en la siguiente figura: Puede observarse un grupo de células numerado en la parte superior. Eso es. y esto hace posible que existan teléfonos que caben en la mano. interferir con el envío de las señales entre las células que se encuentren más lejanas. las mismas frecuencias pueden ser reutilizadas en células no adyacentes. cada una utilizando un séptimo de los canales disponibles para que cada celda tenga un grupo único de frecuencias y no haya colisiones entre células adyacentes.

y en algún punto su teléfono obtiene una señal que le indica que cambie de frecuencia. A medida que usted se mueva en la célula. TÍPICA TORRE DE TRANSMISIÓN DE TELEFONÍA CELULAR Cuando el usuario desea realizar una llamada. Por lo tanto. y alguien trata de llamarle. un dispositivo llamado "switch" conecta la señal del teléfono celular a un canal en la red de telefonía pública. Desde los primeros sistemas la MTSO lo encontraba activando su teléfono (utilizando uno de los canales de control. el teléfono celular envía un mensaje a la torre solicitando una conexión a un número de teléfono específico. la estación base notará que la fuerza de su señal disminuye. ya que su teléfono se encuentra siempre escuchando) en cada célula de la región hasta que su teléfono respondiera. Esta oficina maneja todas las conexiones telefónicas y estaciones base de la región. Si la torre dispone de los suficientes recursos para permitir la comunicación. Ahora estará conectado a la estación base y puede empezar a hablar y escuchar. los registra y compara para 28 . Este cambio hace que su teléfono mude su señal a otra célula.Las transmisiones de las estaciones base y de los teléfonos no alcanzan una distancia más allá de la célula. La tecnología celular requiere un gran número de estaciones base para ciudades de cualquier tamaño. Cada portador en cada ciudad tiene una oficina central llamada MTSO (PSTN en el diagrama siguiente). Una ciudad típica grande puede tener cientos de torres emisoras. lo enciende. Es por esto que en la figura de arriba en cada celda se pueden utilizar las mismas frecuencias sin interferir unas con otras. el teléfono detecta los cambios en la señal. La llamada en este momento toma un canal inalámbrico así como un canal en la red de telefonía pública que se mantendrán abiertos hasta que la llamada se concluya. Entretanto. La MTSO recibe la llamada. Entonces la estación base y el teléfono decidirán cuál de los 59 canales en su teléfono celular usará. la estación base de la célula hacia la que se está moviendo (que está escuchando la señal) será capaz de notar que la señal se hace más fuerte. El teléfono también transmite una propuesta de registro y la red mantiene unos datos acerca de su ubicación en una base de datos (de esta forma es que la MTSO sabe en qué célula se encuentra si quiere timbrar su teléfono). Digamos que usted tiene un celular. Las dos estaciones base se coordinan a sí mismas a través del MTSO. Las transmisiones de la base central y de los teléfonos en la misma celda no salen de ésta. cada celda puede reutilizar las mismas 59 frecuencias a través de la ciudad. y trata de encontrarlo. En sistemas modernos los teléfonos esperan una señal de identificación del sistema (IDS) del canal de control cuando se encienden. los costos se mantienen bajos para el usuario. A medida que se mueve entre células. Pero debido a que hay tanta gente utilizando teléfonos celulares.

y esto es producto de lo que sucedió hace algunas décadas. en forma bastante simplificada. Este fue el inicio de una de las tecnologías que más avances tiene. Durante ese periodo y 1985 se comenzaron a perfeccionar y amoldar las características de este nuevo sistema revolucionario ya que permitía comunicarse a distancia. dando sí algunos datos técnicos específicos que nos parecieron de mayor relevancia para el entendimiento general del tema. hasta el intercambio de ondas electro magnéticas necesario para establecer una sencilla comunicación entre dos teléfonos celulares. Con el tiempo se fue haciendo más accesible al público la telefonía móvil. preferimos darle un enfoque más general. aunque formalmente presentado en 1894 por un joven italiano llamado Guglielmo Marconi. Fue así que en los años 1980 se llegó a crear un equipo que ocupaba recursos similares a los Handie Talkie pero que iba destinado a personas que por lo general eran grandes empresarios y debían estar comunicados. etc. mandar un mensaje de texto. donde ya se veía que era necesaria la comunicación a distancia.. La comunicación inalámbrica tiene sus raíces en la invención del radio por Nikola Tesla en los años 1880. hasta el punto de que cualquier persona normal pudiese adquirir un terminal. Éste es. aunque continúa en la búsqueda de novedades y mejoras. es ahí donde se crea el teléfono móvil y marca un hito en la historia de los componentes inalámbricos ya que con este equipo podría hablar a cualquier hora y en cualquier lugar. HISTORIA DEL TELÉFONO MÓVIL La telefonía móvil usa ondas de radio para poder ejecutar las operaciones desde el móvil a la base. ya sea llamar. es por eso que la compañía Motorola creó un equipo llamado Handie Talkie H12-16. el funcionamiento de la telefonía celular. Si el teléfono no puede hallar canales para escuchar se sabe que está fuera de rango y muestra un mensaje de "sin servicio". deteniéndose más en aspectos de frecuencia y amplitud de las ondas por ejemplo. LOS INICIOS (0G) PIONEROS 29 . Si bien puede enfocarse el tema de manera mucho más técnica.con los de la nueva célula cuando cambia de canal. Y es así como en los actuales días el teléfono móvil es uno de los objetos más usados. abarcando desde el aspecto teórico en la división de las zonas geográficas en células. El teléfono móvil se remonta a los inicios de la Segunda Guerra Mundial. que es un equipo que permite el contacto con las tropas vía ondas de radio cuya banda de frecuencias en ese tiempo no superaban los 60 MHz.

El servicio se daba en las bandas de HF y VHF. Este sistema seguía utilizando canales de radio analógicos (frecuencias en torno a 450 MHz) con modulación en frecuencia (FM).Los primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir de finales de los años 40 en los Estados Unidos. Estuvo en servicio hasta su extinción en 2003. Esta nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias superiores (del orden de 900 MHz). Además del sistema NMT. que utiliza sistemas como GSM. SEGUNDA GENERACIÓN (2G): POPULARIZACIÓN En la década de 1990 nace la segunda generación. Las frecuencias utilizadas en Europa fueron de 900 y 1800 MHz. Se popularizó el uso de sistemas FM gracias a su superior calidad de audio y resistencia a las interferencias. En 1986. por supuesto) desde 1946 hasta 1985. El sistema TACS se utilizó en España con el nombre comercial de MoviLine. Eran sistemas de radio analógicos que utilizaban en el primer momento modulación en amplitud (AM) y posteriormente modulación en frecuencia (FM). iDEN e IS-95. IS-136. Una de las compañías pioneras que se dedicaron a la explotación de este servicio fue la americana Bell. ya que podían ser trasladados y utilizados por una única persona. Los primeros equipos eran enormes y pesados. PRIMERA GENERACIÓN (1G): MADURACIÓN DE LA IDEA En 1981 el fabricante Ericsson lanza el sistema NMT 450 (Nordic Mobile Telephony 450 MHz). 30 . por lo que estaban destinados casi exclusivamente a su uso a bordo de vehículos. pero estuvo operando (con actualizaciones tecnológicas. Su servicio móvil fue llamado Bell System Service No era un servicio popular porque era extremadamente caro. llevándolo hasta el nivel NMT 900. Esto posibilitó dar servicio a un mayor número de usuarios y avanzar en la portabilidad de los terminales. Era el primer sistema del mundo de telefonía móvil tal como se entiende hoy en día. en los 80 se desarrollaron otros sistemas de telefonía móvil tales como: AMPS (Advanced Mobile Phone System) en EEUU y TACS (Total Access Comunication System). Los equipos 1G pueden parecer algo aparatosos para los estándares actuales pero fueron un gran avance para su época. Generalmente se instalaba el equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el salpicadero del coche. Ericsson modernizó el sistema.

6 Kbps) y el mercado empezaba a requerir servicios multimedia que hacían necesario un aumento de la capacidad de transferencia de datos del sistema. es decir. GSM ha cumplido con todos sus objetivos pero al cabo de un tiempo empezó a acercarse a la obsolescencia porque sólo ofrecía un servicio de voz o datos a baja velocidad (9.5G.0G) Dado que la tecnología de 2G fue incrementada a 2. • • Realmente. en la cual se incluyen nuevos servicios como EMS y MMS: • • EMS es el servicio de mensajería mejorado. GENERACIÓN DE TRANSICIÓN (2. videos y texto. Itinerancia. Terminales realmente portátiles (de reducido peso y tamaño) a un precio asequible.El desarrollo de esta generación tiene como piedra angular la digitalización de las comunicaciones. Se trata de un estándar europeo nacido de los siguientes principios: • • • • Buena calidad de voz (gracias al procesado digital). si se desea 31 . en la cual cada plantilla solo puede contener un archivo de cada tipo aceptado. Instauración de un mercado competitivo con multitud de operadores y fabricantes. además se aumenta el nivel de seguridad y se simplifica la fabricación del Terminal (con la reducción de costes que ello conlleva). El estándar que ha universalizado la telefonía móvil ha sido el archiconocido GSM: Global Sistem for Mobile communications o Groupe Spécial Mobile. Deseo de implantación internacional. Es en este momento cuando se empieza a gestar la idea de 3G. Compatibilidad con la RDSI (Red Digital de Servicios Integrados). un EMS equivale a 3 o 4 sms.5G. un sonido y un texto en cada plantilla. cdmaOne (EEUU y Asia) y GSM. solo puede contener una imagen. Las comunicaciones digitales ofrecen una mejor calidad de voz que las analógicas. PDC (Japón). pero como la tecnología CDMA no estaba lo suficientemente madura en aquel momento se optó por dar un paso intermedio: 2. MMS (Sistema de Mensajería Multimedia) Este tipo de mensajes se envían mediante GPRS y permite la inserción de imágenes. En esta época nacen varios estándares de comunicaciones móviles: D-AMPS (EEUU). Un MMS se envía en forma de diapositiva. sonidos. permite la inclusión de melodías e iconos dentro del mensaje basándose en los sms.

2 Mbps. la recepción de televisión en Alta Definición. En este momento el desarrollo tecnológico ya posibilita un sistema totalmente nuevo: UMTS (Universal Mobile Telecommunications System). entre muchas otras cosas. Se esperaba que fuera un bombazo de ventas como GSM pero realmente no ha resultado ser así ya que. Cabe mencionar que no es posible enviar un vídeo de más de 15 segundos de duración. UMTS ha sido un éxito total en el campo tecnológico pero no ha triunfado excesivamente en el aspecto comercial. Hoy en día no hay ningún sistema de este nivel que esté claramente definido. la videoconferencia. EVOLUCIÓN Y CONVERGENCIA TECNOLÓGICA 32 . CUARTA GENERACIÓN (4G): EL FUTURO La generación 4 Generación o 4G será la evolución tecnológica que ofrecerá al usuario de telefonía móvil un mayor ancho de banda que permitirá. la mayoría de usuarios tiene bastante con la transmisión de voz y la transferencia de datos por GPRS y EDGE.agregar más de estos tendría que agregarse otra plantilla. • GPRS (General Packet Radio Service) permite velocidades de datos desde 56kbps hasta 114 kbps. la televisión y la descarga de archivos. que se hizo realidad con las tecnologías GPRS y EDGE. lo cual le hace alcanzar velocidades realmente elevadas (de 144 Kbps hasta 7. • TERCERA GENERACIÓN (3G): EL MOMENTO ACTUAL 3G nace de la necesidad de aumentar la capacidad de transmisión de datos para poder ofrecer servicios como la conexión a Internet desde el móvil. EDGE (Enhaced Data rates for GSM Evolution) permite velocidades de datos hasta 384 Kbps. Para poder prestar estos nuevos servicios se hizo necesaria una mayor velocidad de transferencia de datos. pero a modo de ejemplo podemos echar un vistazo a los sistemas LTE (Long Term Evolution). UMTS utiliza la tecnología CDMA. según las condiciones del terreno). según parece.

el primer teléfono móvil en 1983 que pesaba 780 gramos. correo electrónico. CONEXIÓN A INTERNET Con la aparición de la telefonía móvil digital. agenda electrónica PDA.La evolución del teléfono móvil ha permitido disminuir su tamaño y peso. fue posible acceder a páginas de Internet especialmente diseñadas para móviles. navegación por Internet y hasta Televisión digital. Mediante el software adecuado es posible acceder. SMS. localizador e identificador de personas. que permitió acceder a internet a través del protocolo TCP/IP. desde un terminal móvil. y se tarifa en función de la cantidad de información transmitida y recibida. correo electrónico. a servicios como FTP. pantallas más nítidas y de colores. fotografía digital y video digital. La velocidad del GPRS es de 54 kbit/s en condiciones óptimas. como juegos. Las compañías de telefonía móvil ya están pensando nuevas aplicaciones para este pequeño aparato que nos acompaña a todas partes. El desarrollo de baterías más pequeñas y de mayor duración. Las primeras conexiones se efectuaban mediante una llamada telefónica a un número del operador a través de la cual se transmitían los datos de manera similar a como lo haría un módem de PC. 33 . desde el Motorola DynaTAC. a los actuales más compactos y con mayores prestaciones de servicio. nació el GPRS. video llamada. conocido como tecnología WAP. mensajería instantánea. Posteriormente. reproducción de música MP3 y otros formatos. la incorporación de software más amigable. Algunas de esas ideas son: medio de pago. El avance de la tecnología ha hecho que estos aparatos incorporen funciones que no hace mucho parecían futuristas. hacen del teléfono móvil un elemento muy apreciado en la vida moderna. utilizando los mismos protocolos que un ordenador convencional. Telnet.

Orange.00 pesos o $18. 3G y en algunas ciudades 3.5G. El Mercado de telefonía móvil en Venezuela para el primer trimestre del 2008 alcanza la cifra de Digitel) 34 . Iusacell y Telcel cuentan con la cobertura más amplia de 3G en el país. Algunos de los virtuales.5G.EvDO Otras tecnologías más recientes que permiten el acceso a Internet son y HSPA. GPRS (EDGE). Por otro lado. Vodafone y Yoigo) ofrecen conexión a Internet móvil. sobre todo. [] pero al tratarse de un servicio muy lucrativo para los operadores. el servicio ilimitado de Iusacell tiene un costo a junio de 2009 si es navegación desde el móvil $250.[] Internet móvil en México México existen cuatro operadores móviles con red propia (Telcel. si es navegación por PC no tiene un plan ilimitado. Pepephone o Simyo. El Mercado de telefonía móvil en Colombia está creciendo.[] que se une a la de cobertura.[] No obstante. también ofrecen este servicio. EDGE. Algunos de los nuevos operadores basan parte de su estrategia comercial en este servicio. sin bajadas de velocidad (21.50 dólares por 30 días de servicio. Vodafone ofrece desde abril de 2010 una tarifa de internet móvil sin límites de descarga y. como por ejemplo Jazztel. y en algunas plazas están implementando 3.6 Mbps). Movistar lo ofrece bajo WAP y GPRS. Este sistema aún es caro ya que el sistema de tarificación no es una verdadera tarifa plana sino que establece limitaciones en cuanto a datos o velocidad. es común entre los operadores anunciar supuestas tarifas planas que después resultan estar limitadas. Nextel) En Internet móvil en Venezuela En Venezuela existen tres operadoras móviles con red propia (Movistar. Telcel lo ofrece bajo WAP. Movilnet y y las tres ofrecen acceso a transferencia de datos. consiguiendo velocidades similares a las de la ADSL. Iusacell ofrece el servicio bajo 3G mientras que Nextel lo ofrece bajo WAP sobre iDEN.[] Tigo) Internet móvil en España Actualmente todos los operadores españoles con red propia (Movistar. comienzan a aparecer módems para PC que conectan a Internet utilizando la red de telefonía móvil.00 pesos o $28 dólares. Iusacell. Comcel y y las tres ofrecen acceso a transferencia de datos. apareciendo la tarifa ilimitada de Movistar "Tarifa Plana Internet Plus"[] y el módem USB prepago de Vodafone. el servicio ilimitado de Telcel tiene un costo a junio de 2009 de $379. en la actualidad existe una intensa batalla comercial en este campo. El operador líder en tráfico de datos móviles en 2007 era Vodafone. notablemente Yoigo y Simyo. y las cuatro ofrecen acceso a transferencia de datos en sus diferentes redes. Movistar. Aprovechando la tecnología UMTS. Internet móvil en Colombia En Colombia existen tres operadoras móviles con red propia (Movistar.

o en cinta magnética usando un formato analógico como muchas cámaras de video.[7] según datos oficiales del ente gubernamental competente (CONATEL). CÁMARA DIGITAL Una cámara digital es una cámara fotográfica que. Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal.24. fotografías Las cámaras digitales compactas modernas generalmente son multifuncionales y contienen algunos dispositivos capaces de grabar sonido y/o video además de fotografías. como PDA. asegura en un estudio de noviembre de 2007[8] que un 42. Eliminar cables y conectores entre éstos.1%).7%) las tres actividades donde los usuarios venezolanos manifiestan mayor interés en cuanto a Internet móvil. computadoras portátiles.8% de los usuarios venezolanos se declara interesado en conectarse a Internet a través del móvil. al aparato también se lo denomina cámara filmadora digital.405. En este caso. Los principales objetivos que se pretenden conseguir con esta norma son: • • • Facilitar las comunicaciones entre equipos móviles y fijos. empresa especializada en estudios de mercado. impresoras o cámaras digitales. teléfonos móviles.387 líneas. Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales. Datanalisis. la búsqueda de información (en un 42. mientras que un 18% declara usar este servicio. CARACTERISTICAS TECNOLOGICAS DE LOS NUEVOS CELULARES BLUETOOTH Bluetooth es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2. ordenadores personales.4 GHz. INFRARROJO 35 . en vez de capturar y almacenar en películas fotográficas como las cámaras fotográficas convencionales. Actualmente se venden más cámaras fotográficas digitales que cámaras con película [ de 35 mm. siendo los correos electrónicos (en un 57.5%) y la descarga de tonos (en un 44. lo hace digitalmente mediante un dispositivo electrónico.

El infrarrojo es un tipo de luz que no podemos ver con nuestros ojos. Nuestros ojos pueden solamente ver lo que llamamos luz visible. La luz infrarroja nos brinda información especial que no podemos obtener de la luz visible. VIDEOLLAMADA Videoconferencia es la comunicación simultánea bidireccional de audio y vídeo, permitiendo mantener reuniones con grupos de personas situadas en lugares alejados entre sí. Adicionalmente, pueden ofrecerse facilidades telemáticas o de otro tipo como el intercambio de informaciones gráficas, imágenes fijas, transmisión de ficheros desde el PC, etc. El núcleo tecnológico usado en un sistema de videoconferencia es la compresión digital de los flujos de audio y video en tiempo real. [ ]Su implementación proporciona importantes beneficios, como el trabajo colaborativo entre personas geográficamente distantes y una mayor integración entre grupos de trabajo. WAP Wireless Application Protocol o WAP (protocolo de aplicaciones inalámbricas) es un estándar abierto internacional para aplicaciones que utilizan las comunicaciones inalámbricas, p.ej. acceso a servicios de Internet desde un teléfono móvil. Se trata de la especificación de un entorno de aplicación y de un conjunto de protocolos de comunicaciones para normalizar el modo en que los dispositivos inalámbricos, se pueden utilizar para acceder a correo electrónico, grupo de noticias y otros. El organismo que se encarga de desarrollar el estándar WAP fue originalmente el WAP Forum, fundado por cuatro empresas del sector de las comunicaciones móviles, Sony-Ericsson, Nokia, Motorola y Openwave (originalmente Unwired Planet). Desde 2002 el WAP Forum es parte de la Open Mobile Alliance (OMA), consorcio que se ocupa de la definición de diversas normas relacionadas con las comunicaciones móviles, entre ellas las normas WAP.

WIFI

Cuando hablamos de WIFI nos referimos a una de las tecnologías de comunicación inalámbrica mediante ondas más utilizada hoy en día. WIFI, también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre comercial.

36

En la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:
• •

802.11b, que emite a 11 Mb/seg, y 802.11g, más rápida, a 54 MB/seg.

De hecho, son su velocidad y alcance (unos 100-150 metros en hardware asequible) lo convierten en una fórmula perfecta para el acceso a internet sin cables. Para tener una red inalámbrica en casa sólo necesitaremos un punto de acceso, que se conectaría al módem, y un dispositivo WIFI que se conectaría en nuestro aparato. Existen terminales WIFI que se conectan al PC por USB, pero son las tarjetas PCI (que se insertan directamente en la placa base) las recomendables, nos permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles podemos encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se venden con tarjeta integrada.
MANOS LIBRES Habitualmente se conoce como manos libres o kit manos libres a aquellos dispositivos que se utilizan en los coches para poder hablar por teléfono. Podemos distinguir dos tipos diferentes de kit manos libres: Aquellos que requieren instalación y los que no. Los primeros suelen ser más pequeños, y se conectan directamente a la batería del coche. El sonido sale por los altavoces del vehículo, por lo que la calidad de sonido es mejor. Por el contrario, los manos libres sin instalación suelen llevar una batería que es necesario recargar con cierta frecuencia. Eso sí, estos últimos no necesitan ser instalados por un especialista.

FABRICANTES
es actualmente el mayor fabricante en el mundo de teléfonos móviles, con una cuota de mercado global de aproximadamente 39,1% en el segundo trimestre de 2008. Continúan la lista con un 14,4% Samsung, 10,2% Motorola, 8% LG y 7,5% Sony Ericsson. Entre otros fabricantes se encuentran Alcatel, Apple Inc., Audiovox (hoy UT Starcom), Benefon, BenQ-Siemens, Hewlett Packard, High Tech Computer, Fujitsu, HTC, Huawei, Kyocera,Mitsubishi, NEC Corporation, Neonode, Panasonic (Matsushita Electric), Pantech Curitel, Philips, Research In Motion, SAGEM, Gtran, Sanyo, Sharp, Sierra Wireless, SK Teletech, Skyzen, TCL Corporation, Toshiba, Verizon, Zonda Telecom, verykool y Tocs, etc.
Nokia

CONTAMINACIÓN ELECTROMAGNÉTICA
La contaminación electromagnética, también conocida como electropolución, es la contaminación producida por las radiaciones del espectro electromagnético

37

generadas por equipos electrónicos u otros elementos producto de la actividad humana. Numerosos organismos como la Organización Mundial de la Salud,[] la Comisión Europea,[] la [] [] Universidad Complutense de Madrid, la Asociación Española contra el Cáncer , el Ministerio de Sanidad y Consumo de España, o el Consejo Superior de Investigaciones Científicas de España[] han emitido informes que descartan daños a la salud debido a las emisiones de radiación electromagnética, incluyendo las de los teléfonos móviles. Aunque existen algunos estudios contrarios a la opinión de estas organizaciones como el publicado en 2003 por el TNO (Instituto Holandés de Investigación Tecnológica), que afirmaba que las radiaciones de la tecnología UMTS podrían ser peligrosas,[] han sido rebatidos por otros más serios, como una investigación de la Universidad de Zúrich,[] que utilizó hasta 10 veces la intensidad utilizada por el estudio del TNO. También hay numerosos estudios que intentan asociar la presencia de antenas con diversas enfermedades.[] En resumen, es seguro vivir en un edificio con una antena de telefonía y en los que lo rodean, ya que aún no se ha podido demostrar con certeza que la exposición por debajo de los niveles de radiación considerados seguros suponga un riesgo para la salud.

LA CREACIÓN DE UN NUEVO LENGUAJE
La mayoría de los mensajes que se intercambian por este medio, no se basan en la voz, sino en la escritura. En lugar de hablar al micrófono, cada vez más usuarios (sobre todo jóvenes) recurren al teclado para enviarse mensajes de texto. Sin embargo, dado que hay que introducirlos con los botoncitos del celular, ha surgido un lenguaje en el que se abrevian las palabras valiéndose de letras y números. A pesar de que redactar y teclear es considerablemente más incómodo que conversar, cada mes se envían y reciben 30.000 millones de mensajes en todo el mundo (año 2005). El lenguaje SMS, consiste en acortar palabras, sustituir algunas de ellas por simple simbología o evitar ciertas preposiciones y demás. La Principal causa es que el SMS individual se limita a 160 caracteres, si se sobrepasa ese límite, los mensajes ya pasan a ser dobles, triples, etc., dependiendo del número de caracteres final. Por esa razón se procura comprimir el número de caracteres sin perder el entendimiento del mensaje pudiendo extenderlo bastante más por el mismo coste. Según un estudio británico, un 42% de los usuarios de 18 a 24 años los utilizan para coquetear; un 20%, para concertar citas románticas de forma moderna, y un 13%, para romper una relación. A algunos analistas sociales les preocupa que estos mensajes, con su jerigonza y sintáctica, lleven a que la juventud no sepa escribir bien. Sin embargo, otros opinan que “favorecen el renacer de la comunicación escrita en una nueva generación”. La portavoz de una editorial que publica un diccionario australiano hizo este
ortográfica

38

comentario al rotativo The Sun-Herald: “No surge a menudo la oportunidad de forjar un nuevo estilo [de escritura] [...;] los mensajes de texto, unidos a Internet, logran que los jóvenes escriban bastante más. Necesitan tener un dominio de la expresión que les permita captar el estilo y defenderse bien con el vocabulario y el registro [...] correspondientes a este género”. Algunas personas prefieren enviar mensajes de texto (SMS) en vez de hablar directamente por cuestiones de economía. De hecho, enviar un mensaje de texto cuesta menos que hablar directamente. ¿ES NOCIVA LA TELEFONÍA MÓVIL? ¿Las radiaciones que emiten las antenas de telefonía celular son perjudiciales para la salud? Un informe reciente no pudo constatar los efectos que denuncian organizaciones como STOP UMTS, de Holanda. Una investigación reciente de la Universidad de Zurich reveló que las radiaciones de las antenas de UMTS (Universal Mobile Telecommunications System) de telefonía móvil no afectan la salud de las personas. Las conclusiones se recogen del informe: "Exposición de antenas tipo estación base, UMTS, bienestar y funcionamiento cognitivo" que vino a complementar y a corregir un estudio anterior holandés. El instituto de investigación TNO señalaba en 2003 que podría existir una relación entre las emisiones de UMTS y algunos malestares físicos como mareos, picazón o dolores de cabeza. El sistema UMTS le sucede al conocido como GSM. Las mejoras técnicas que incorporó facilitan el acceso a la información en lugares remotos, como en las regiones rurales. La integración de servicios es uno de sus puntos a favor. Por ejemplo, la comunicación telefónica, la transmisión de datos informáticos o de video, son accesibles tanto para el hombre de ciudad como para el de una comunidad rural. Con esta tecnología cualquier persona en cualquier parte -donde estén emplazadas las antenas-, goza de las mismas prestaciones que le ofrecen las empresas de comunicaciones. Se dice que las telecomunicaciones inalámbricas podrían alcanzar a 2000 millones de usuarios en el año 2010. Estas expectativas contrastan con las objeciones de algunas organizaciones, como la holandesa STOP UMTS, que le achaca a las radiaciones que emanan de las antenas distribuidas en las ciudades y el campo los problemas físicos que padecen muchas personas. Las "replicaciones" del estudio de 2003, revela la investigadora Verónica Berdiñas, de IT Fundation y miembro del equipo que elaboró el informe de Zurich, "han señalado que no existe ninguna relación entre la radiación de estas antenas UMTS -en los niveles que se describen en el estudio- y el bienestar de los sujetos, ni con las funciones cognitivas". 39

El estudio sometió a prueba a dos grupos de personas, las que se describen a sí mismas como "sensibles" a los campos radioeléctricos y las que desconocen su presunta influencia en la salud. Ambos grupos permanecieron expuestos a las radiaciones a lo largo de tres sesiones de 45 minutos cada una. La intensidad de la emisión varió de la primera a la última: en la primera, la antena permaneció apagada; en la segunda, se aplicó el mismo nivel de campo eléctrico que se utilizó en el estudio holandés de 2003; y en la última, se multiplicó su intensidad por diez. "En ninguno de los dos grupos hemos podido encontrar una correlación entre lo que ellos se reportan a sí mismos y el hecho de que la antena estuviera o no funcionando, explica Berdiñas. La investigadora no desconoce, sin embargo, que el estudio en cuestión engloba un período de tiempo corto. Las afecciones, dicen los demandantes, son consecuencia de años de exposición a las radiaciones de las antenas de UMTS. Para descartar cualquier duda, los estudios de tipo epidemiológico se abocan en la actualidad a una serie de análisis a largo plazo. "De las tecnologías que se han introducido quizás ésta sea la que más sujeta está a estudios", reconoce el titular del Departamento de Electromagnetismo en la Universidad Politécnica de Madrid, José María Gil. En efecto, hay "infinidad de estudios" con animales y con cultivos celulares sobre los que se han basado los científicos para establecer los niveles de exposición. Los especialistas consultados coinciden en subrayar que las radiaciones que emiten estas antenas decrecen en la medida que nos alejamos de ellas, del orden de los 6 o 7 metros. El pequeño aparato de bolsillo, el inocente teléfono móvil que usamos con tanto entusiasmo, explica el profesor José María Gil, "nos expone a niveles bastante más altos que los que nos produce una antena grande, porque la distancia es mucho más pequeña". Verónica Verdinas agrega: "Las diferentes tecnologías varían según las frecuencias. La penetración en un cuerpo depende de la frecuencia que se esté usando: a mayor frecuencia, menos penetración en los cuerpos. Por ejemplo, la tecnología UMTS utiliza una frecuencia mayor que la GMS, con lo cual, en principio, penetraría menos en el cuerpo humano". En cualquier caso, como admite también la especialista, los estudios no han concluido. Varias organizaciones en Holanda, como STOP UMTS, subrayan que a partir de los resultados de la Universidad de Zurich no se pueden sacar conclusiones. Por el contrario, insiste, muchos otros informes arrojan resultados negativos. El ministro de salud holandés, Pieter van Geel, aseguró que no existe ningún peligro para la salud pública, porque "los investigadores suizos no encontraron diferencias significativas en el bienestar, entre aquellos que fueron expuestos a las radiaciones de una antena UMTS y aquellos que estuvieron sujetos a una 40

exposición corta”. Y sugirió que las municipalidades que se oponían a la instalación de las antenas, podrían, por tanto, levantar la suspensión. En un artículo que publica la organización STOP UMTS en su página web, se recoge la respuesta de Niels Kuster, uno de los científicos que participó del estudio de Zurich. Kuster critica la interpretación del ministro Van Geel: "Esto siempre sucede así. Nosotros hemos informado claramente sobre las limitaciones de nuestra investigación. Fue un intento de legitimar la investigación de TNO y ese intento fracasó. Cualquier otra conclusión no corresponde".

POR OTRO LADO: FLUJO DEL CALCIO Los estudios realizados que se han dedicado a determinar los efectos potencialmente adversos tanto en el ámbito biológico como en el caso de la salud humana en general son muy diversos. Es de notar que la mayoría (sino todos) los estudios se realizan con animales de laboratorio, cultivos de células o tejidos.

Aunque los campos de radiofrecuencia que no son modulados por ELF (extrema baja frecuencia) no parecen afectar el flujo del Calcio de los tejidos en general y del cerebral en particular, la modulación de baja frecuencia de RF en las intensidades de los límites precisados por las normas de seguridad, sí parecen alterarlo aunque no se encuentra dilucidado el tema aún. Por este motivo aunque existe algún indicio, no se puede señalar con certeza que las exposiciones a los campos de RF de los dispositivos para las comunicaciones celulares afecten la regulación del calcio de los tejidos nerviosos o que los efectos de este tipo, tengan alguna consecuencia para la salud. No obstante, investigaciones en curso podrían probar tales efectos biológicos.

Comunicación
41

Un modelo simple de comunicación con un emisor que transmite un mensaje a un receptor. Para otros usos de este término, véase Comunicación (desambiguación). La comunicación es el proceso mediante el cual se transmite información de una entidad a otra. Los procesos de comunicación son interacciones mediadas por signos entre al menos dos agentes que comparten un mismo repertorio designos y tienen unas reglas semióticas comunes. Tradicionalmente, la comunicación se ha definido como "el intercambio de sentimientos, opiniones, o cualquier otro tipo de información mediante habla, escritura u otro tipo de señales". Todas las formas de comunicación requieren un emisor, un mensaje y un receptor. En el proceso comunicativo, la información es incluida por el emisoren un paquete y canalizada hacia el receptor a través del medio. Una vez recibido, el receptor decodifica el mensaje y proporciona una respuesta. Origen de la comunicación El lenguaje y la escritura
Existe un fundamento psicológico que permite al ser humano aprender diferentes lenguajes. Aparentemente, el hombre comienza a expandirse desde África Oriental (homo sapiens), cuyo centro del nacimiento humano se cree está en Etiopía. De acuerdo a su evolución física y cognitiva existen 4 cambios evolutivos que darán lugar al hombre actual:

Homo habilis: El primer hombre, se diferencia del Homo Sapiens en que baja de los árboles, camina sólo con sus piernas. Era habilidoso y de considerable tamaño craneal.  Homo erectus: Comienza a fabricar mejores herramientas, muy pulidas. Descubre el fuego y su uso. Ahora le crece tanto la cabeza como el cuerpo.  Homo sapiens: Parte de África hacia las diferentes partes del mundo. Éste se moverá de Asia Central a Europa, más tarde colonizará Australia y demostrará una avanzada tecnología con la construcción de medios de navegación y métodos de orientación y localización de rutas. Así llegará al continente americano.  Homo habilis: Estará caracterizado por su aumento craneal, sus desarrolladas articulaciones y, sobre todo, por la aparición del lenguaje.

El lenguaje aparece hace 100.000 años, aunque el Homo Sapiens hubiera surgido hace 150.000 produciendo un proto-lenguaje. La última fase, el lenguaje, aparece hace 100.000 años. Cuando se determinó la articulación de sonidos, sólo faltaba unirlos con signos que los representaran.

Sociedades orales
Hasta el momento de la creación de la escritura, existía la necesidad de almacenar de alguna forma en la memoria colectiva e individual toda clase de información

42

(historias, nombres, mitos...). Para ello, se crearon mapas lingüísticos (rituales), entre los que se encuentran:

Las fórmulas: Introducción oral breve y acompañada de música, a partir de la cual se engancha una exposición extensa de todo aquello que recuerda. Se utiliza en el aprendizaje ya que resulta una fórmula fácil y sencilla.  Los nombres de lugares y personas: Los nombres propios hacen referencia a nombres de los diferentes canales y lugares, a pesar de ser limitados, son clave para memorizar qué existe en el sitio mencionado.  La poesía: Histórica, religiosa, mitológica, etc. suele ser musical, teniendo ritmos muy definidos.  Las narraciones: Históricas, personales, introducciones a historias más grandes pero que contienen mucha información histórica.  Los repertorios legales o de otra índole: Son las más raras, escasas, ya que ocupan mucha memoria.

Estas fórmulas se transmiten de boca en boca hasta la aparición de la escritura. Dentro de este grupo podemos incluir las técnicas de los chamanes que recurrían a un entrenamiento para memorizar con recursos relacionados con la memoria auditiva: ritmos, movimientos, sonidos, melodías, etc.

De la comunicación oral a la escritura
Existen en la actualidad, dos grandes teorías que intentan explicar cómo se dio el paso de una sociedad oral a una sociedad escrita. La primera, denominada Teoría de la gran línea divisoria, explica cómo las sociedades orales definen una mentalidad diferente e inferior a las sociedades en las que la escritura es la principal forma de comunicación. De esta manera creen que con la invención de la escritura, la humanidad ha dado un gran salto cualitativo muy importante, al dotarnos de procedimientos que son capaces de aumentar nuestras capacidades cognitivas. Con la escritura nuestro pensamiento se vuelve más reflexivo, más abstracto, más complejo y estructurado, y por ello la escritura crea una sociedad superior. La segunda teoría, conocida como Teoría de la continuidad niega la superioridad de la escritura frente a la oralidad y defiende la idea de que ambos tipos de comunicación, oral y escrita, son medios lingüísticos equivalentes. En esencia, ambos derivados del lenguaje tienen funciones similares, sin embargo se pueden especializar y por ello no existe una diferencia cognitiva.

Origen de la escritura cuneiforme
La escritura ha sido la acompañante necesaria en un cambio profundo de la sociedad como es el paso de la sociedad cazadora-recolectora a la sociedad agricultora-ganadora. La aparición de la escritura está ligada a la aparición de la división social. Es por ello, que las primeras escrituras aparecieron en los templos, donde se localizaba la clase sacerdotal. Los sacerdotes se encargaban de lacontabilidad y la administración de los impuestos, utilizando para ello unas tablillas de arcilla, donde el número tenía más peso que la letra. Estas tablillas suponen el 43

origen de la escritura cuneiforme y las más antiguas fueron encontradas en el templo de Uruk. Sin la escritura, los sacerdotes no habrían podido establecer su situación de privilegio y su papel organizador del pueblo. Con este tipo de escritura se formalizan las divisiones sociales, por su función sancionadora y normativa.

El origen de la escritura
El origen de la escritura no se dio de forma sincrónica en el tiempo. Estuvo localizada entre la revolución neolítica y la revolución urbana, donde conocemos 5 civilizaciones en las cuales se desarrolló la escritura:
    

Mesopotamia: Hace 5000 años, escritura cuneiforme. Egipto: Hace 4500 años. Escritura jeroglífica. El valle del río Indo: Hace 4000 años. Escritura jeroglífica. Asia': Hace 3000 años. Escritura ideográfica. Meso-americanas: Hace 1500 años.
Antes de que la escritura fuera generalizada , en el último periodo del paleolítico, el hombre ya utilizó formas de comunicación pictográfica, la cual tiene su origen en el gesto, es decir, en la mímica y no en la palabra. Un ejemplo de estas formas de comunicación gráfica lo constituyen las manos de Gargas. Estos dibujos eran símbolos que se utilizaban para cazar y que se repiten en muchas cuevas de Europa. Otro ejemplo de formas de comunicación anteriores a la escritura, son las bullae. Denise Schmandt-Besserat estudió la cerámica y encontró unas pequeñas bolas con incisiones en el exterior y que escondían toda una clase de objetos ideográficos en su interior. Las bullae funcionaron como un mecanismo de contabilidad. Se originaron en el inicio del cambio de la sociedad cazadora a la sociedad agricultora y las más antiguas tienen alrededor de 9000 años.

Nacimiento del alfabeto
Cuando la revolución urbana constituyó las primeras ciudades, las bullae fueron depurándose, apareciendo una escritura lineal y las escrituras cuneiformes se extendieron por toda la ribera oriental de la costa mediterránea. Hace aproximadamente 3500 años, un pueblo de la zona de Siria, los fenicios, caracterizados por ser navegantes comerciantes, desarrollaron una nueva forma de escritura sencilla, basada en veintidós signos de carácter alfabético y no ideográfico, es decir, que representaban sonidos de forma gráfica y eran todos consonánticos, dando lugar al Alfabeto semítico. 500 años después, el alfabeto sufrió una escisión en 4 subalfabetos: semítico meridional, cananeo, arameo y el griego arcaico. Los griegos desarrollaron las 5 vocales actuales para adaptar el nuevo alfabeto a su lengua, dando origen al primer alfabeto escrito de izquierda a derecha . Un tiempo después, se extendió por el mediterráneo y fue adoptado por los romanos, constituyéndose finalmente el latín, antecesor de las lenguas románicas.

44

Teoría de la información

Esta gráfica pertenece al modelo de comunicación desarrollado por Claude Elwood Shannon y Warren Weaveren 1949 y representa la fuente de la información, elcodificador que envía el mensaje a través del medio de comunicación o canal de comunicación, el cual podría ser interrumpido o distorsionado por el ruido (representado en el rayo que cae) y que llega a un decodificador y de este alreceptor el cual podría emitir a su vez una respuesta.

Otro esquema simple del proceso de comunicación o transmisión de la información.
En muchos casos la teoría de la comunicación suele confundirse con la teoría de la información, la cual corresponde a la teoría matemática de Claude E. Shannonque estudia la información (canales, comprensión de datos, criptografía y todo lo que se le relaciona) como magnitud física. Ésta emplea una unidad de medida de la información a la que denomina el "BIT", es decir, la menor unidad que puede aprenderse. Esta unidad de medida de la información se sustenta en la alternativa sí o no en cada determinación que pueda dar elementos para el conocimiento de los objetos. Así, por ejemplo, la sexualidad de un sujeto puede darse por un BIT, simplemente, macho o hembra. Para fijar la posición de una pieza de ajedrez sobre un tablero de 64 casillas se necesitarán al menos 6 BITS o 6 preguntas binarias. 45

Si bien la teoría de la información es útil a la teoría de la comunicación como aportante matemático y a la comprensión lógica de los procesos, dicha teoría no corresponde en concreto a la preocupación de la teoría de la comunicación, la cual analiza la vinculación de los procesos comunicativos individuales a la problemática social, así como la relación universal existente en torno a la comunicación mediática y el poder político y se apoya en el uso de lasemiología, que es el estudio de los signos, en la realidad social y se nutre de la lingüística y otras ciencias.

Puntos de vista de la teoría de la comunicación
Los siguientes son algunos puntos de vista sobre la comunicación y de la teoría de la comunicación:

Mecanicista: Este punto de vista entiende la comunicación como un perfecto transmisor de un mensaje desde un emisor hasta un receptor tal como se ve en el diagrama anterior.  Psicológico: Considera a la comunicación como el acto de enviar un mensaje a un perceptor (llamado así porque considera al receptor como sujeto de la comunicación) y en el cual las sensaciones y las ideas de ambas partes influyen considerablemente en el contenido del mensaje.  Construccionismo social: Este punto de vista, también llamado "interaccionismo simbólico", considera a la comunicación como el producto de significados creativos e interrelaciones compartidas.  Sistemática: Considera a la comunicación como un mensaje que pasa por un largo y complejo proceso de transformaciones e interpretaciones desde que ocurre hasta que llega a los perceptores.

La revisión de una teoría en particular a este nivel dará un contexto sobre el tipo de comunicación tal como es visto dentro de los confines de dicha teoría. Las teorías pueden ser estudiadas y organizadas además de acuerdo a la ontología, la epistemología y la axiología que en general son impuestas por el teórico.

Ontología: Pone la pregunta sobre el qué, exactamente, el teorista examina. Se debe considerar la verdadera naturaleza de larealidad. La respuesta, por lo general, cae dentro del campo de uno de los tres fenómenos ontológicos dependiendo de la lente con la cual el teórico mire el problema: realista, nominalista o construccionismo.  La perspectiva realista mira el mundo de manera objetiva en la creencia de que hay un mundo por fuera de nuestras propias experiencias y cogniciones.  La perspectiva nominalista mira al mundo subjetivamente en la idea de que todo aquello al exterior de las cogniciones del sujeto son únicamente nombres y etiquetas.  La perspectiva construccionista monta la barrera entre lo objetivo y lo subjetivo declarando que la realidad es aquello que creamos juntos.

46

180 grados. Los estudiosos por lo general piensan que la evidencia empírica recogida de manera objetiva está más cerca de reflejar la verdad en las investigaciones. Teorías de este corte son generalmente creadas para predecir fenómenos. pero dicho término pertenece más al ámbito de la teoría de la información. el conocimiento objetivo es aquel que es el resultado de una mirada sistemática de las relaciones casuales del fenómeno.   47 . Receptor: Es quien recibe la información.Epistemología: Pone la pregunta sobre el cómo los teóricos estudian el fenómeno escogido.  Canal: Es el medio físico por el que se transmite el mensaje. en este caso Internet hace posible que llegue a usted (receptor) el mensaje (artículo de Wikipedia). Teorías subjetivas sostienen que el entendimiento está basado en conocimientos localizados. por lo general escogidos por el emisor. Las teorías subjetivas se desarrollan por lo general para explicar o entender fenómenos del mundo social. nos señala que la realidad es vista por los medios de comunicación desde diferentes puntos de vista.  Modelos de comunicación Esquema en un estudio de televisión. Este conocimiento es por lo general deducido por medio de métodos científicos. según el modelo de Shannon y Weaver. los elementos que deben darse para que se considere el acto de la comunicación son: Emisor: Es quien emite el mensaje. En una aproximación muy básica. puede ser o no una persona. En los estudios epistemológicos. típicamente establecidos a través de la utilización de métodos interpretativos tales como la etnografía y la entrevista. Dentro de una concepción primigenia de la comunicación es conocido como Receptor.

Los elementos claves de este modelo son: Fuente o Emisor (Remitente). Acepta la señal proveniente del sistema de transmisión y la transforma de tal  manera que pueda ser manejada por el dispositivo destino. Este dispositivo genera los datos a transmitir: por ejemplo teléfonos o computadores personales. Toma los datos del receptor.Código: Es la forma que toma la información que se intercambia entre la Fuente (el emisor) y el Destino (el receptor) de un lazo informático.  Situación o contexto: Es la situación o entorno extralingüístico en el que se desarrolla el acto comunicativo. Transforma y codifica la información.  Destino (Destinatario) (“Destinación”). 48 . Por ejemplo. Implica la comprensión o decodificación del paquete de información que se transfiere. Receptor. es intercambiar información entre dos entidades. Un ejemplo particular de comunicación entre una estación de trabajo y un servidor a través de una red telefónica pública. Otro posible ejemplo consiste en el intercambio de señales de voz entre dos teléfonos a través de la misma red anterior.  Elementos de la comunicación humana El objetivo principal de todo sistema es adaptarse a la comunicación. Sistema de transmisión. Por ejemplo.  Fuente Transmisor Sist. un módem convierte las cadenas de bits generadas por un computador personal y las transforma en señales analógicas que pueden ser transmitidas a través de la red telefónica. generando señales electromagnéticas  susceptibles de ser transmitidas a través de algún sistema de transmisión. de Transmisión o canal Receptor Destino Diagrama general a bloques Sistema fuente Sistema destino Teoría de las telecomunicaciones Transmisor.  Mensaje: Es lo que se quiere transmitir. Puede ser desde una sencilla línea de transmisión hasta una  compleja red que conecte a la fuente con el destino. un módem captara la señal analógica de la red o línea de transmisión y la convertirá en una cadena de bits.

los cuales típicamente se suelen compartir entre una serie de dispositivos de comunicación. y se debe especificar que hacer en caso de que se den ciertas contingencias. Ésta se necesitará una vez que la interfaz está establecida. deben ser tales que permitan: 1) ser propagadas a través del medio de transmisión y 2) ser interpretada en el receptor como datos. la forma y la intensidad. Se deberá establecer si ambos dispositivos pueden Enlace de comunicación Estación de trabajo Módem Medio de Módem transmisión Servidor transmitir simultáneamente o si deben hacerlos por turnos. sino que deben permitir alguna forma de sincronizar el receptor y el emisor.Aunque el modelo presentado puede parecer sencillo. Implemento de la interfaz. tales como. deberá conocer la duración de cada elemento de señal. Las  características de la señal. Para hacerse una idea de la magnitud de ella a continuación una breve explicación de algunas de las tareas claves que se deben realizar en un sistema de comunicaciones. en realidad implica una gran complejidad. las dos partes (emisor y receptor) deben cooperar. Esto es que si se necesita intercambiar datos durante un  período. se necesitaran ciertas convenciones además del simple hecho de establecer la conexión. Se refiere a la necesidad de hacer un uso eficaz  de los recursos utilizados en la transmisión. Sincronización. Para que un dispositivo pueda transmitir tendrá que hacerlo a  través de la interfaz con el medio de transmisión. Se necesita en circunstancian donde no se pueden  49 . Detección y corrección de errores. Igualmente. El receptor debe ser capaz de determinar cuándo comienza y cuándo acaba la señal recibida. En los dispositivos para el procesamiento de datos. Las señales se deben generar no sólo considerando que deben cumplir  los requisitos del sistema de transmisión y del receptor. Utilización del sistema de transmisión. Gestión del intercambio. Generación de la señal. se deberá decidir la cantidad y el formato de los datos que se transmiten cada vez.

realiza un proceso inverso al del emisor ya que en él está  50 . la comunicación no se limita al habla o a la escritura: es un complejo proceso interminable de interacción mutua. mensaje de retorno o mensaje secundario). al mirar a la persona a los ojos o al insinuar que se quiere hablar. es decir. los codifica para poder enviarlo de manera entendible -siempre que se maneje el mismo código entre el emisor y el receptor. Podemos iniciar el acto comunicativo preguntando la hora a alguien. al acercarse prudentemente a la distancia mínima -Proxémica. Control de flujo. los datos. Se utiliza cuando en una transacción de una base de datos o transferencia de un fichero. reciba los datos. el sistema fuente deberá de alguna manera indicar a dicho recurso compartido la identidad del destino. y sólo ése. canal. al ver a la persona. ruido (barreras o interferencias) y la retroalimentación o realimentación (feed-back. cuando la señal transmitida se distorsiona de alguna manera antes de alcanzar su destino. receptor o decodificador. símbolo). Se utiliza cuando cierto recurso se comparte por  más de dos dispositivos. organización) al que se destina el mensaje. o bien ser capaz de continuar transmitiendo desde donde se produjo la interrupción.de dos personas desconocidas. emisor o codificador. en conclusión: de donde nace el mensaje primario.  Emisor o codificador: Es el punto (persona. se ve interrumpida por algún fallo. a lo sumo existe una instancia primaria de emisión verbal -que se confunde con el que "habló primero". No existe un iniciador en el proceso comunicativo. Direccionamiento y encaminamiento. Se utiliza para evitar que la fuente no sature al destino transmitiendo  datos más rápidamente de lo que el receptor pueda procesar o absorber. código (reglas del signo. mensaje primario (bajo un código).  Receptor o decodificador: Es el punto (persona.  Recuperación. la Teoría del proceso comunicativo Los elementos o factores de la comunicación humana son: fuente. Fuente: Es el lugar de donde emana la información. el objetivo será pues. organización) que elige y selecciona los signos adecuados para transmitir su mensaje. pero inevitablemente la comunicación comenzó mucho antes. el contenido que se enviará. Como se puede ver.pero la comunicación debe ser entendida como un proceso dinámico y circular.tolerar errores es decir. sin principio ni fin. El sistema de transmisión deberá garantizar que ese destino.al receptor.

el pasivo que es el que sólo recibe el mensaje. Pero cuando la comunicación se realiza por medio de artefactos o instancias electrónicas o artificiales. Una llamada telefónica o un mensaje de texto.  Mensaje: Es el contenido de la información (contenido enviado): el conjunto de ideas. Radio. Canal. e incluso da una respuesta. en el caso de una conversación telefónica. la afonía del hablante. todo lo que nos rodea son signos codificados. la alteración de la escritura en un viaje. estableciendo una conexión entre el emisor y el receptor. sentimientos.el descifrar e interpretar lo que el emisor quiere dar a conocer. Puede ser positiva (cuando fomenta la comunicación) o negativa (cuando se busca cambiar el tema o terminar la comunicación). barrera o ruido: Cualquier perturbación que sufre la señal en el proceso comunicativo. Si no hay realimentación. donde un receptor o perceptor se transforma en emisor al producir y codificar un nuevo mensaje para ser enviado al ente emisor -ahora devenido en receptor. la sordera del oyente.  Canal: Es por donde se transmite la información-comunicación. entonces sólo hay información mas no comunicación. y es lo que comúnmente sucede en cualquier comunicación interpersonal. Internet. el hilo telefónico. Ejemplos: el aire. el alumno que no atiende aunque esté en silencio. Periódicos.  Situación: Es el tiempo y el lugar en que se realiza el acto comunicativo. etc. Mejor conocido como el soporte material o espacial por el que circula el mensaje.  Referente: Realidad que es percibida gracias al mensaje. se puede dar en cualquiera de sus elementos. siempre y cuando se reciba una respuesta (actitud. se le denomina Medio.  Interferencia. Por ejemplo: Una charla de café. o la distorsión de la imagen de la televisión. Cuando la comunicación es interpersonal -entre personas y sin ningún medio electrónico de por medio. intercambiando los roles. Son las distorsiones del sonido en la conversación. Logrando la interacción entre el emisor y el receptor. para combinarlos de manera arbitraria y socialmente convenida ya que debe estar codificado de una manera adecuada para que el receptor pueda captarlo. lo almacena..También suele llamarse ruido  Retroalimentación o realimentación (mensaje de retorno): Es la condición necesaria para la interactividad del proceso comunicativo.tienen por canal a un Medio. la gramática de algún idioma. Comprende todo aquello que es descrito por el mensaje.se le denomina Canal. El mensaje es la información debidamente codificada. la ortografía defectuosa. En este caso. como una conversación cara cara (de ahí "interpersonal"). los algoritmos en la informática. la distracción del receptor. Existen dos tipos de receptor.es donde se produce el feed-back o retroalimentación. 51 . conducta) sea deseada o no. en el caso de la voz. un Medio. Los medios de comunicación masiva -TV. y el receptor activo o perceptor ya que es la persona que no sólo recibe el mensaje sino que lo percibe. Un ejemplo claro es el código que utilizan los marinos para poder comunicarse.  Código: Es el conjunto de reglas propias de cada sistema de signos y símbolos de un lenguaje que el emisor utilizará para trasmitir su mensaje. acontecimientos expresados por el emisor y que desea trasmitir al receptor para que sean captados de la manera que desea el emisor.

 Motivación: Lo realiza en el sentido que esclarece a los empleados qué es lo que debe hacer.  Reguladora: Tiene que ver con la regulación de la conducta de las personas con respecto a sus semejantes.Funciones de la comunicación Informativa: Tiene que ver con la transmisión y recepción de la información. Otras Funciones de la comunicación dentro de un grupo o equipo: Control: La comunicación controla el comportamiento individual. En este sentido. incita la motivación y necesita definitivamente de la comunicación.  Hechos sociales como la mentira son una forma de comunicación informativa (aunque puede tener aspectos reguladores y afectivo-valorativos). por ello es de suma importancia para la estabilidad emocional de los sujetos y su realización personal.  Axiomas de la comunicación Diversos enfoques de la comunicación humana la conciben como un ritual que los seres humanos llevan acabo desde que nacen. Gracias a esta función. proceder en dependencia de ella y cambiar la actitud en lo sucedido. Los teóricos han determinado 52 . Las organizaciones. así como proporciona la formación de hábitos. se le puede denominar facilitador en la toma de decisiones. pero es necesario asimilarse. en la que el emisor trata de influir sobre el estado mental del receptor para sacar ventaja.  Expresión emocional: Gran parte de los empleados. los individuos pueden establecerse una imagen de sí mismo y de los demás. Esta función de control además se da en la comunicación informal. De la capacidad autorreguladora y del individuo depende el éxito o fracaso del acto comunicativo Ejemplo: una crítica permite conocer la valoración que los demás tienen de nosotros mismos. A través de ella se proporciona al individuo todo el caudal de la experiencia social e histórica.  Afectivo . observan su trabajo como un medio para interactuar con los demás.  Cooperación: La comunicación se constituye como una ayuda importante en la solución de problemas.valorativa: El emisor debe otorgarle a su mensaje la carga afectiva que el mismo demande. la retroalimentación sobre el avance hacia el logro de la meta y el reforzamiento de un comportamiento deseado. en la medida que brinda la información requerida y evalúa las alternativas que se puedan presentar. habilidades y convicciones. el establecimiento de metas específicas. es decir sentimientos. y por el que transmiten fracasos y de igual manera satisfacciones. si se están desempeñando de forma adecuada y lo que deben hacer para optimizar su rendimiento. En esta función el emisor influye en el estado mental interno del receptor aportando nueva información. no todos los mensajes requieren de la misma emotividad. poseen jerarquías de autoridad y guías formales a las que deben regirse los empleados.

Algunos de estos departamentos toman una gran perspectiva social y científica. La gran división entre el discurso de la comunicación y los medios masivos se vuelve complicado para un número de pequeñas subáreas de los estudios en comunicación lo que incluye la comunicación intercultural e internacional. El lenguaje digital cuenta con una sintaxis lógica sumamente compleja y poderosa pero carece de una semántica adecuada en el campo de la relación. existe un rango de elementos comunes que sirven para dividir las investigaciones sobre comunicación. sociología. El estudio de la comunicación en los EE. 2. Los seres humanos se comunican tanto digital como analógicamente. Mientras muchos de estos se convirtieron en "departamentos de comunicación". Esta variación teorética hace difícil que se llegue a término con un campo totalizado. Sin embargo. Campo teórico Una disciplina se define cuando forma parte de una estructura teorética. Los intercambios comunicacionales son simétricos o complementarios según estén basados en la igualdad o la diferencia 1.1 también conocidos como axiomas de Paul Watzlawick: Es imposible no comunicarse. 53 .cinco axiomas de la comunicación. lastelecomunicaciones y el trabajo en otros niveles variados. La naturaleza de una relación depende de la puntuación de secuencias de comunicación entre los comunicantes. Los estudios sobre la comunicación suelen presentar teorías de otras ciencias sociales. por lo general retienen sus raíces históricas adheriendo la mayoría de las veces a teorías del discurso de la comunicación en casos pasados y después de los medios de comunicación social. las políticas y marcos legales de la comunicación. tales que el segundo califica al primero y es por ende una metacomunicación. 3. pero que en muchas ocasiones representan historias institucionales.UU. 4. Toda comunicación tiene un aspecto de contenido y uno de relación. otros tienden más hacia una perspectiva humanista y todavía otros se impulsan a sí mismos hacia la producción y la preparación profesional. Contextos Para muchos autores y estudiosos la comunicación se divide en lo que llaman contextos o niveles. 5. entre muchas otras.. Dos tipos de divisiones tienen que ver con contextos y los campos teóricos asumidos. mientras que el lenguaje analógico posee la semántica pero no una sintaxis adecuada para la definición inequívoca de la naturaleza de las relaciones. lingüística. cuando ocurren dentro de departamentos de psicología. los pequeños grupos de comunicación. las Tecnologías de la información y la comunicación. antropología y escuelas de periodismo. generalmente desarrolla escuelas de laretórica.

modelos y aproximaciones. Mientras los teóricos de la comunicación utilizan con frecuencia estos dos tipos de aproximaciones. Semiótica: Mediación intersubjetiva a través de signos. Sociocultura: Reproducción del orden social. 6. e influencia crítica y discurso reflexivo. parece ser que olvidan o marginan el lugar del lenguaje y las máquinas de la comunicación como las tecnologías de la comunicación. Craig encuentra que estas siete tradiciones claramente identificables se definen una en contra de la otra y a la vez permanecen cohesionadas en aproximaciones que describen el comportamiento de la comunicación. Mientras estas aproximaciones tienden también a tener sus divisiones institucionales básicas. pero inevitablemente algunas teorías y conceptos pasan de una área a otra o encuentran su sitio definitivamente. tal como es expuesta porVygotsky. es que la comunicación como herramienta primaria definida de acuerdo a su herramienta permanece sólo a las afueras de la teoría de la comunicación. Algunos campos de la comunicación y sus teorías Producción del mensaje: Teoría constructivista y teoría de la asamblea. Como una ayuda taxonómica. tienden a reforzarse unas a otras y retienen el mismo terreno de asumidos epistemológicos y axiológicos. 2. estas etiquetas ayudan a organizar la teoría por sus asumidos y ayuda a los estudiosos a entender porqué algunas teorías parecen inconmensurables. es constante a través de las "tradiciones" y "niveles" de la teoría de la comunicación. McLuhan y otros. Cibernética: Proceso de la información. La idea que rodea esto y en particular el lugar de la persuasión. Proceso de la información: Teorías de la elaboración de preferencias y teoría de la inoculación. 1. Esto encuentra algunas representaciones en la escuela de comunicación de Toronto en lo que se conoce como teoría media representada en la obra de Innis. 5.   54 . Fenomenología: Experiencia de la "otredad" y el diálogo. interacción. permanece como elemento central para los investigadores de la comunicación. Asumidos Otro modo de dividir los campos de la comunicación enfatiza en los asumidos que están a la base de teorías particulares. 3. La idea.Estos "niveles" de comunicación ofrecen algunos modos de agrupar las teorías de la comunicación. Sociopsicología: Expresión. las teorías dentro de cada una de las siete "tradiciones" de la teoría de la comunicación que Robert Craig sugiere. Estas "siete tradiciones" consisten en las siguientes:2 Retórica: Práctica del arte discursivo. 4. Parece ser que el modo en el cual individuos y grupos utilizan las tecnologías de la comunicación.

Una Biblia es atravesada por una mano con el símbolo nazista.  Desarrollo de las relaciones: Teoría de la reducción de incertezas y teoría de la penetración social.  Paulo Freire.  Relaciones en proceso: Teoría de los sistemas de relación y dialéctica relacional.  Cultura: Teoría de los códigos discursivos y teoría de la conservación del rostro.  Medios masivos y sociedad: Teoría de la agenda establecida y teoría de la espiral del silencio. boliviano.Discurso e interacción: Teoría de los actos discursivos y administración coordinada del significado.  Organizacional: Teoría de la estructura y teoría del control coercitivo. peruana.  Juan Díaz Bordenave. Luís Ramiro Beltrán.3  Escuelas "This is the enemy" ("Este es el enemigo").  Pequeños grupos: Teoría funcional y teoría de la convergencia simbólica. Manuel Calvelo Ríos. la escuela estadounidense y la escuela latinoamericana. brasileño. Rosa María Alfaro. paraguayo. Para una lista de los teóricos de la comunicación asociados a las escuelas europea y estadounidense. José Manuel Calvelo Ríos es el creador del modelo teórico de comunicación. caricatura de André Koehne . Las escuelas de la teoría de la comunicación pueden dividirse en sentido general en la escuela europea. 1941.  Procesos de los medios masivos y sus efectos: Teoría cognitiva social y teoría de usos y gratificaciones. Teóricos de la comunicación El teórico brasileño Paulo Freire.propaganda estadounidense antinazi destinada a promover el rechazo contra el sistema nazi.    55 . visite este enlace. producto del desarrollo de la Escuela de comunicación estadounidense durante la II Guerra Mundial. Especialmente aquellos que han contribuido a la formación de la Escuela Latinoamericana de Comunicación y a la llamada Teoría Crítica de la Comunicación Española. todo un juego de significados.

venezolano.    Ciencias de la comunicación La existencia de las denominadas ciencias de la comunicación presupone dar a la comunicación una entidad autónoma y un campo de investigación propio en el conjunto del saber. la antropología o la lingüística. belga.Néstor García Canclini. mexicano. semiólogo. Por otra parte. Es posible así hablar de una pragmática de la comunicación. o si por el contrario es un ámbito concreto del conocimiento al que disciplinas ya consolidadas tratan de estudiar.  Manuel Martín Serrano. grupal (comunidades). nacido en Ávila. puede considerarse la comunicación como un campo de estudios transversal. social y cultural. Es decir. su riqueza y su validez está dada por los diferentes puntos de vista que reúne en torno a la discusión de una situación particular. chileno. El problema que cabe plantearse es si la comunicación es una disciplina como tal. teórico de la comunicación español. argentina. es uno de los escritores más prolíferos en el continente. Ciencias sociales La comunicación es un proceso de interrelación entre dos o más seres vivos o entidades donde se transmite una información desde un emisor que es capaz de codificarla en un código definido hasta un receptor. argentino. lasociología.  José María Desantes Guanter. que tiene su objeto de estudio en el proceso de comunicación afectado de manera individual (personas). España está nacionalizado enColombia.  Carlos Monsiváis. nacionalizado en Chile en donde desarrolló sus investigaciones especialmente. argentino. semiólogo argentino.  Washington Uranga. economista político de la comunicación español. Jesús Martín-Barbero. argentino. como la psicología.  Armand Mattelart. el cual decodifica la 56 .  Héctor Schmucler.  Enrique Bustamante Ramírez. antropólogo y filósofo. en el que concurren diversas ciencias para explicar el fenómeno desde puntos de vista concretos. teórico del derecho de la comunicación español.  Sandra Massoni. el análisis político. Puede ser considerada una disciplina moderna. mexicano. argentino. el desarrollo de estas ciencias ha ido de la mano con el desarrollo de las tecnologías y de los medios de transmisión de información.  Daniel Prieto Castillo. Daniel Hernández.  Antonio Pasquali.  Eliseo Verón. producto de la reflexión multidisciplinaria en torno a este fenómeno.  Fernando Reyes Matta.

pues la información que ésta extrae de su medio ambiente y su facultad de transmitir mensajes serán claves para sacar ventaja del modo de vida gregario. El proceso de comunicación emisor . Estructura de la información y la comunicación.  Realización y producción audiovisual.receptor. que puede traducirse como "poner en común. todo eso en un contexto determinado. Etimológicamente. compartir algo". Análisis social de la comunicación La comunicación como disciplina social que analiza los contenidos. se torna bivalente cuando el receptor logra codificar el mensaje. lo interpreta y lo devuelve al emisor originario.  Crítica mediática  Redacción periodística. Comunicación y Cultura  Política de la comunicación  Comunicación Organizacional o Corporativa 57 .mensaje . Lengua y literatura.  Semiótica de la Comunicación y de la publicidad. Se considera una categoría polisémica en tanto su utilización no es exclusiva de una ciencia social en particular.  Industrias culturales.  Narrativa audiovisual. Publicidad  Teoría de la publicidad y de las Relaciones Públicas. Comunicación audiovisual y mass media. teniendo connotaciones propias de la ciencia social de que se trate.  Historia de los medios de comunicación. la palabra comunicación deriva del latín "communicare". características y canales a través de los cuales se da la comunicación incluye las siguientes subdisciplinas:       Análisis del discurso y pragmática.información recibida. La comunicación es de suma importancia para la supervivencia de especies gregarias. quien ahora se tornará receptor.

la tecnología satelital ha recobrado gran importancia en el terreno de las comunicaciones. son indispensables para la comunicación en casi todos los puntos de la tierra. Televisión 58 . Televisión corporativa. principalmente en las áreas como: Internet. En los últimos años. el cual empieza con una breve descripción de lo que es la tecnología satelital para luego profundizar con en los beneficios y contrastes. La función de los satélites de comunicación será muy importante. Educación a distancia.Comunicación Satelital Este documento tiene como objetivo dar a conoces si es buena o mala la comunicación satelital y conocer sus ventajas y desventajas. durante los siguientes 10 años. Radiodifusión (Televisión comercial. Los satélites artificiales geoestacionarios que están posicionados sobre el ecuador de la superficie terrestre.

The Brick Moon (‘la luna de ladrillos’). se inició en 1869. El cuento. que es el primer tratado académico sobre el uso de cohetes para lanzar naves espaciales. Las barreras físicas que apartaban zonas enteras de los cinco continentes. las ventajas son mayores. desde hace 5 años Edusat desarrolla programas de alfabetización a distancia en todo el país. selvas y polos glaciares ya no serán un obstáculo para las comunicaciones gracias a la tecnología satelital. Los satélites artificiales proporcionarán cobertura a regiones donde la comunicación por redes terrestres es prácticamente imposible. En este libro.[1] [2] El objeto del título se trataba de una ayuda para la navegación pero que por accidente fue lanzado con personas en su interior. Durante su vida. en el caso del sector educativo. publicado por entregas en Atlantic Monthly. océanos. el ruso Konstantín Tsiolkovski publicó La exploración del espacio cósmico por medio de los motores de reacción. o sumamente costosa. nieve. y Telemedicina. como desiertos. y el debilitamiento de las señales debido a fenómenos metereológicos (lluvias intensas. la interferencia de radio y microondas. Prácticamente a partir de los siguientes años. Pero asiendo un análisis profundo y minucioso se deja ver que tecnología satelital es superior en muchos aspectos a comparación de la tecnología terrestre o de conexión aunque también tiene desventajas la cual no pose la tecnología de red. y manchas solares). se trata de un resultado inintencionado del villano al construir una pieza de artillería gigante para destruir a sus enemigos. y Televisión por cable). montañas. propulsores de múltiples 59 . Calculó que la velocidad orbital requerida para una órbita mínima alrededor de la Tierra es aproximadamente 8 km/s y que se necesitaría un cohete de múltiples etapas que utilizase oxígeno líquido e hidrógeno líquido como combustible. Antecedentes históricos La primera representación ficticia conocida de un satélite artificial lanzado a una órbita alrededor de la Tierra aparece en un cuento de Edward Everett Hale. pero le imprime al proyectil una velocidad superior a la pretendida. publicó más de 500 obras relacionadas con el viaje espacial. cubriendo todos los niveles en el cual se ve reflejado los avances. La idea reaparece en Los quinientos millones de la Begún (1879) de Julio Verne.Directa al Hogar. no habrá un punto en la tierra sin la posibilidad de comunicación. sin embargo. rural). lo que lo deja en órbita como un satélite artificial. Por ejemplo. En 1903. Telefonía (Internacional. Aunque las transmisiones satelitales también tienen algunas desventajas como las demoras de propagación.

Clarke examinó la logística de un lanzamiento de satélite. lo que permitía realizar mediciones de la presión. Herman Potočnik publicó su único libro. el Proyecto RAND presentó el informe Preliminary Design of an Experimental World-Circling Spaceship (Diseño preliminar de una nave espacial experimental en órbita). trabajando de forma independiente en mucho de los cálculos que realizaban los hermanos Wright en ese momento. La era espacial comenzó en 1946. densidad y temperatura hasta una altitud de 200 km. Das Problem der Befahrung des Weltraums .». un plan para progresar hacia el espacio y mantener presencia humana permanente. entre los Estados Unidos y La Union Soviética. El libro describía satélites geoestacionarios y discutía sobre la comunicación entre ellos y la tierra utilizando la radio pero no sobre la idea de utilizarlos para comunicación en masa y como estaciones de telecomunicaciones. En 1945. También sugirió que tres satélites geoestacionarios proporcionarían la cobertura completa del planeta. señalando los beneficios de la comunicación global de alta velocidad. En mayo de 1946..[4] Antes de ese momento. Los satélites artificiales nacieron durante la guerra fría. los científicos utilizaban globos que llegaban a los 30 km de altitud y ondas de radio para estudiar la ionosfera. Clarke. Historia de los satélites artificiales Satélite ERS-2. La realización de una nave satélite produciría una repercusión comparable con la explosión de la bomba atómica. Clarke concibió la posibilidad para una serie de satélites de comunicaciones en su artículo en Wireless World[] Versión facsímil del artículo Extra terrestrial relays por Arthur C. que pretendían ambos llegar a la luna y a su vez lanzar un satélite a la órbita espacial.el motor de cohete). estaciones espaciales. En 1928.der Raketen-motor (El problema del viaje espacial . escotillas para salir de una nave en el espacio y un sistema biológico cerrado para proporcionar comida y oxígeno a las colonias espaciales. 60 .etapas. También describió el uso de naves orbitales para observaciones pacíficas y militares y como se podrían utilizar las condiciones del espacio para realizar experimentos científicos. También profundizó en las teorías sobre máquinas voladoras más pesadas que el aire. Desde 1946 a 1952 se utilizó los cohetes V-2 y Aerobee para la investigación de la parte superior de la atmósfera. cuando los científicos comenzaron a utilizar los cohetes capturados V-2 alemanes para realizar mediciones de la atmósfera. Potočnik diseñó una estación espacial y calculó su órbita geoestacionaria.. las posibles órbitas y otros aspectos para la creación de una red de satélites. en el cual se decía que «Un vehículo satélite con instrumentación apropiada puede ser una de las herramientas científicas más poderosas del siglo XX. el escritor británico de ciencia ficción Arthur C.

El 29 de julio de 1955. Cabe señalar que en el Sputnik 2. lanzó el primer satélite artificial de la humanidad. El resto entran de nuevo en la atmósfera donde se desintegran o si resisten. liderada por Rusia. el día 4 de octubre de 1957. el Telstar I. el Secretario de Defensa afirmó: «No conozco ningún programa estadounidense de satélites». el cual al momento de colocarse exitosamente en órbita. la Fundación Nacional de la Ciencia (NSF) y el Año Geofísico Internacional. como los programas Sputnik 2 y 3. creando el primer enlace televisivo internacional. El 31 de julio. como etapas de cohetes. Desde entonces. se adelantara a Estados Unidos en dicha carrera. impactan con la Tierra. hasta sólo 61 . El Proyecto RAND de la Fuerza Aérea presentó su informe pero no se creía que el satélite fuese una potencial arma militar. política y de propaganda. la Casa Blanca anunció que los Estados Unidos intentarían lanzar satélites a partir de la primavera de 1958. En 1960 se lanzó el primer satélite de comunicaciones: el Echo I era un satélite pasivo que no estaba equipado con un sistema bidireccional sino que funcionaba como un reflector. El hito ruso que cambió al mundo La Unión Soviética. En 1962 se lanzó el primer satélite de comunicaciones activos. La SSN (Red de Vigilancia Espacial) ha estado rastreando los objetos espaciales desde 1957.000 objetos de fabricación humana. desde el Cosmódromo de Baikonur. la SSN ha registrado más de 26. los soviéticos anunciaron que tenían intención de lanzar un satélite en el otoño de 1957.Estados Unidos había considerado lanzar satélites orbitales desde 1945 bajo la Oficina de Aeronáutica de la Armada. emitió unas señales radiales en forma de pitidos. Este programa fue llamado Sputnik. debido al temor provocado en la población estadounidense ante el gran adelanto tecnológico desarrollado por los soviéticos. Este programa fue seguido por otros logros rusos. tras el lanzamiento del Sputnik I. el interés militar aumentó y a comienzos de 1955 la Fuerza Aérea y la Armada estaban trabajando en el Proyecto Orbiter. Con el Sputnik. Esto se convirtió en el Proyecto Vanguard. Los objetos pueden pesar desde varias toneladas.000 objetos orbitando sobre la Tierra y mantiene su rastreo sobre unos 8. la perra llamada Laika. marcando con ello un antes y después de la carrera espacial. sin querer. que evolucionaría para utilizar un cohete Jupiter-C en el lanzamiento de un satélite denominado Explorer 1 el 31 de enero de 1958. Tras la presión de la Sociedad Americana del Cohete (ARS). sino más bien una herramienta científica. la Unión Soviética. la Unión Sovietica logró colocar en órbita el primer animal en la historia. En 1954. demostrando el éxito alcanzado por los científicos soviéticos. logrando que la Unión Sovietica. provocó una sicosis colectiva en los Estados Unidos.

Una desventaja obvia es que a bordo. y después unir su antena al satélite y localizarlo cuando pasa por arriba. mientras que el resto son chatarra espacial. CLASIFICACIONES ORBITALES. Si el satélite esta girando en la dirección opuesta a la rotación de la Tierra o en la misma dirección. en la ciudad de Nueva York. Con un estabilizador de tres ejes. 100% de las veces. SATELITES GEOESTACIONARIOS Los satélites geoestacionarios o geosíncronos son satélites que giran en un patrón circular. el cuerpo permanece fijo en 62 . y no permanecen estacionarios en relación a ningún punto particular de la Tierra. se requieren de dispositivos de propulsión sofisticados y pesados para mantenerlos fijos en una órbita. con una velocidad angular igual a la de la Tierra. Se hace mención que una réplica idéntica.unos kilogramos. Si el satélite esta girando en la misma dirección de la rotación de la Tierra y a una velocidad angular superior que la de la Tierra. Por lo tanto los satélites no síncronos se tienen que usar cuando están disponibles. son llamados satélites orbitales o no síncronos. como 15 minutos por órbita. hasta el momento. Una ventaja obvia es que están disponibles para todas las estaciones de la Tierra. Los satélites espinar. Otra desventaja de los satélites orbitales es la necesidad de usar un equipo costoso y complicado para rastreo en las estaciones terrestres. la órbita se llama órbita progrado. La sombra de un satélite incluye todas las estaciones de la Tierra que tienen un camino visible a él y están dentro del patrón de radiación de las antenas del satélite. desarrollada en Rusia. igual que la Tierra. Sputnik SATELITES ORBITALES Los satélites mencionados. pero a una velocidad angular menor a la de la Tierra. El tiempo de órbita de un satélite geosíncrono es de 24 h. como símbolo del desarrollo tecnológico alcanzado por los humanos. utilizan el movimiento angular de su cuerpo giratorio para proporcionar una estabilidad de giro. lo cual puede ser un corto periodo de tiempo. Los satélites no síncronos giran alrededor de la Tierra en un patrón elíptico o circular de baja altitud. ESPACIAMIENTO Y ASIGNACIONES DE FRECUENCIA Hay dos clasificaciones principales para los satélites de comunicaciones: hiladores (spinners) y satélites estabilizadores de tres ejes. Cada estación terrestre debe localizar el satélite conforme esta disponible en cada órbita. Aproximadamente el 7% de los objetos espaciales (unos 560 satélites) están en funcionamiento. dentro de su sombra. la órbita se llama órbita retrograda. los satélites no síncronos están alejándose continuamente o cayendo a Tierra. del famoso se encuentra en el vestíbulo principal del edificio de las Naciones Unidas. Consecuentemente permanecen en una posición fija con respecto a un punto específico en la Tierra. Consecuentemente. Una gran ventaja de los satélites orbitales es que los motores de propulsión no se requieren a bordo de los satélites para mantenerlos en sus órbitas respectivas.

un amplificador de alta potencia (HPA) y algún medio para limitar la banda del último espectro de salida (por ejemplo. deben estar lo suficientemente separados en el espacio para evitar interferir uno con otro. más pequeño es el diámetro requerido de la antena para una ganancia específica. El primer número es la frecuencia de subida (ascendente) (estación terrena a transponder) y el segundo numero es la frecuencia de bajada (descendente) (transponder a estación terrena). un sistema satelital consiste de tres secciones básicas: una subida. en un área específica en el espacio. Modelodesubida El principal componente dentro de la sección de subida satelital. en una órbita geoestacionaria. Los satélites geosíncronos deben compartir espacio y espectro de frecuencia limitados. o interferencia con enlaces de microondas establecidas. usadas para las comunicaciones por satélite. Se debe tener cuidado cuando se diseña una red satelital para evitar interferncia de. • Técnica de codificación o de modulación usada. un convertidor de microondas de IF a RF.300 millas. un transponder satelital y una bajada. Los satélites trabajando. arriba del Ecuador. un filtro pasa-bandas de salida). Hay un límite realista del número de estructuras satelitales que pueden estar estacionadas. MODELOS DE ENLACE DEL SISTEMA SATELITAL Esencialmente. La posición en la ranura depende de la banda de frecuencia de comunicación utilizada. El modulador de IF se 63 . se requieren de 3 a 6º de separación espacial dependiendo de las variables establecidas anteriormente. aproximadamente a 22.relación a la superficie de la Tierra. Un típico transmisor de la estación terrena consiste de un modulador de IF. más comunes. son las bandas 6/4 y 14/12 GHz. • Frecuencia de la portadora de RF. La mayoría de los satélites domésticos utilizan la banda 6/4 GHz. casi o en la misma frecuencia. • Potencia de la portadora de transmisión. es el transmisor de estación terrena. Entre mas alta sea la frecuencia de la portadora. • Límites aceptables de interferencia. Desafortunadamente. dentro de un arco específico. Diferentes frecuencias de subida y de bajada se usan para prevenir que ocurra repetición. esta banda también se usa extensamente para los sistemas de microondas terrestres. • Generalmente. Las frecuencias de la portadora. La separación espacial requerida depende de las siguientes variables: Ancho del haz y radiación del lóbulo lateral de la estación terrena y antenas del satélite. mientras que el subsistema interno proporciona una estabilización de giro.

fue posible gracias a la intervención de varias fuentes como COMSAT (Programa MARISAT). Esto se realiza usando enlaces cruzados entre satélites o enlaces intersatelitales (ISL). Los HPA comúnmente usados son klystons y tubos de onda progresiva. 4. El HPA proporciona una sensibilidad de entrada adecuada y potencia de salida para propagar la señal al transponder del satélite. un amplificador de potencia de bajo nivel y un filtro pasa-bandas de salida. Enlacescruzados Ocasionalmente. tal como un amplificador de diodo túnel o un amplificador paramétrico. 4.1.convierte la IF convierte las señales de banda base de entrada a una frecuencia intermedia modulada en FM. un LNA y un convertidor de RF a IF. COSPAS-SARSAT. El convertidor de RF a IF es una combinación de filtro mezclador /pasa-bandas que convierte la señal de RF recibida a una frecuencia de IF. Una desventaja de usar un ISL es que el transmisor y receptor son enviados ambos al espacio. Consecuentemente la potencia de salida del transmisor y la sensibilidad de entrada del receptor se limitan. comenzando en 1982. 4. en PSK o en QAM. el BPF limita la potencia del ruido de entrada al LNA. hay aplicaciones en donde es necesario comunicarse entre satélites. Inmarsat y otros sistemas de satélites. Otras configuraciones de transponder son los repetidores de IF. El LNA es un dispositivo altamente sensible. semejantes a los que se usan en los repetidores de microondas. y de banda base. con poco ruido. Nuevamente. Transponder Un típico transponder satelital consta de un dispositivo para limitar la banda de entrada (BPF). MARISAT y MARECS fueron los precursores de los servicios de demostración y el MCP posibilitó comunicaciones marítimas mediante la incorporación de un módulo especial para esa función en la serie INTELSAT V-A (modificación de la serie V). Este transponder es un repetidor de RF a RF. 64 . un traslador de frecuencias.2. Modelodebajada Un receptor de estación terrena incluye un BPF de entrada. Introducción. dicho módulo era similar al ofrecido por MARISAT. El convertidor (mezclador y filtro pasa-bandas) convierte la IF a una frecuencia de portadora de RF apropiada. La primera serie de satélites usados por INMARSAT. ESA (Programa MARECS) e INTELSAT (Programa ISV-MCP). un amplificador de bajo ruido de entrada (LNA).

Las organizaciones son the International Maritime Organization (IMO). 65 .2. Transmisiones aéreas de localización de emergencia (ELTs). the International Radio Maritime Committee (CIRM) and the International Federation of Air Line Pilots Associations (IFALPA). Nace de la unión SARSAT (Search And Rescue Satellite-Aided Tracking) y su homólogo soviético COSPAS (acrónimo ruso de Sistema Espacial para la Búsqueda de Buques en Peligro). 4.2. Funcionamiento. the International Chamber of Shipping (ICS). El sistema. COSPAS-SARSAT es un sistema internacional de búsqueda y rescate consistente en una constelación de satélites con cobertura global dispuestos en órbita polar (entre 800 y 1000 Km de altitud) y en una red de estaciones terrestres que envían señales de alerta o informaciones de localización a las autoridades encargadas de las labores de rescate ya sea por tierra. Este programa conjunto está esponsorado por Canadá (pionera en 1982). the International Telecommunication Union (ITU). Los satélites de INMARSAT III cuentan con un sistema SAR (Búsqueda y Rescate) a bordo. entre ellos están las 4 partes del acuerdo COSPAS-SARSAT (Canadá. 14 proveedores de segmentos terrestres. los satélites COSPASSARSAT reciben señales de alerta emitidas por: • • • Radiobalizas marítimas de emergencia e indicadoras de posición (EPIRBs). Radiobalizas de localización personal (PLBs).1. Estados Unidos y el propio COSPAS soviético. esta información se envía al Centro de Control de Misiones (MCC) que se encarga de transmitir la posición y otras informaciones pertinentes al Centro de Coordinación de Rescates más apropiados (RCC). Introducción.2. 8 países usuarios y 2 organizaciones participantes. Rusia y Estados Unidos). el sistema COSPAS-SARSAT es actualmente el máximo exponente en lo que a búsqueda y rescate vía satélite se refiere. the International Civil Aviation Organization (ICAO).3. 4. los países adicionales están en proceso de integración. Actuando como repetidores de comunicaciones.2.4.4. Participantes. Francia. Los satélites retransmiten las señales de alerta a estaciones terrestres denominadas LUTs(Local User Terminal) donde se procesa y determina la localización geográfica del accidente.2. mar o aire. 4. Hay 28 países y organizaciones participantes en el funcionamiento del sistema. Francia.

dos COSPAS y dos SARSAT. Los Estados Unidos contribuyen con dos satélites meteorológicos NOAA (National Oceanic and Atmospheric Administration) situados a 850 Km. de altitud en órbita polar y equipados con instrumental SAR a 121. El sistema de 406 MHz fue utilizado en 500 de estos incidentes (2193 personas rescatadas).6. ha señalado que un sistema global de navegación civil espacial puede ser desarrollado por menos de un 66 . de altitud y están equipados con instrumental SAR (Búsqueda y Rescate) a 121. respecto a las LUTs cabe destacar la existencia de 29 operativas distribuidas en 17 países y 4 bajo test en 4 países. 4. De hecho.UU. GPS. 4. ITT.5 y 406 MHz. Global Navigation Satellite System) totalmente independiente del sistema GPS (EE.) y GLONASS (Rusia). Los satélites. el sistema de 121. Desde Septiembre de 1982 hasta Junio de 1995 el sistema COSPASSARSAT contribuyó al rescate de 5541 personas en 1800 sucesos SAR: • • • Accidentes aéreos: 1624 personas en 755 sucesos SAR. Los satélites obtienen imágenes del planeta barriendo zonas con un haz de 4000 Km de ancho. 4. El concilio COSPAS-SARSAT está considerando el desarrollo del sistema GEOSAR con satélites de búsqueda y rescate en órbita geoestacionaria que incrementaría el potencial de los ya existentes en órbita polar.2. Nuevos desarrollos.5 MHz se utilizó en el resto de los casos.7. constituiría una alternativa (civil) a ellos. Resultados.La velocidad y precisión de estas comunicaciones incrementa significativamente las posibilidades de supervivencia de las víctimas del accidente en cuestión. y por tanto. Se ha desarrollado un D&E (Demostración y Evaluación) de GEOSAR . Cada satélite da una vuelta completa a la Tierra en 100 minutos aproximádamente a una velocidad de 7Km por segundo. el contratista de Inmarsat.5.2. Los satélites soviéticos están situados en órbita polar a 1000 Km. La configuración del sistema comprende cuatro satélites. 4. Hay 14 MCCs operativos situados en 14 paises y 6 MCCs bajo test en 6 paises. Inmarsat pretende crear un sistema de navegación (GNSS.2. Accidentes marítimos: 3633 personas en 922 sucesos SAR.5 y 406 MHz apoyados por Canadá y Francia.3. Accidentes terrestres: 284 personas en 123 sucesos SAR.

• Estabilidad de las características de retardo de grupo del sistema de modo que pueda ser calibrado para su uso en navegación. para lo que el uso de satélites geoestacionarios y los satélites de INMARSAT serán los encargados de llevarla a cabo. se comportarán como repetidores con lo que se simplificarán los circuitos del satélite y la información de integridad podrá ser actualizada en tiempo real. 3. En un tercer paso. Las estaciones terrenas de enlace con el satélite serán las mismas que proporcionan los servicios de comunicaciones móviles y son operadas por asociaciones que integran INMARSAT (como Comsat) que será responsable de los satélites. Los pasos a seguir hasta constituir la GNSS son los siguientes: 1. Concretamente. Requisitos del repetidor del satélite: Los requisitos del repetidor del satélite son tres: PIRE de 28 dBW en el haz de cobertura global para que la potencia de la señal recibida sea semejante a la señal de los satélites GPS. una pequeña cantidad comparada con el coste del sistema GPS (6-10 millardos de dólares).42 MHz) con una secuencia directa pseudoaleatoria con modulación de espectro ensanchado de la misa familia de GPS que llevará la información de integridad además de la de navegación. pero no llegará a sustituir al GPS. • 67 . ICO) incluirán antenas separadas. 2. Veamos el primer paso dado por Inmarsat para establecer una GNSS propia a partir de los satélites de Inmarsat 3. está basada en una red terrena que monitoriza los satélites y transmite a los usuarios los resultados. Los 12 satélites del proyecto 21 de Inmarsat (Inmarsat-P. Los satélites de INMARSAT III operarán a la misma frecuencia que la señal C/A (código que permite un posicionamiento rápido del receptor pero con precisión media SPS) del GPS (1575. la tercera generación de Inmarsat se encarga de la integridad del sistema GPS mediante la técnica GIC (GPS Integrity Channel) . aumentando la integrabilidad de este sistema. • Ancho de banda nominal del repetidor de 2 MHz para poder transmitir la señal de espectro ensanchado modulada con código C/A a la frecuencia de 1.023 MHz. se constituirá la GNSS independiente de GPS. Lo complementa.millardo de dólares. En los satélites Inmarsat-3 se incluye un transpondedor separado que gestiona las señales GPS. transpondedores y relojes atómicos así como otro instrumental necesario para proveer una amplia gama de servicios de navegación.

y quizá simplista. Es la mas común y conocida de las órbitas. ¿Como "se mueven" los satélites? Los actuales satélites con los que podemos radioaficionados tienen dos tipos de órbita: circular y elíptica. Aunque parezca difícil de creer en la mayoría de nuestros cuartos de radio existen los equipos necesarios para iniciarse en este campo de la radioexperimentación. El radioaficionado "B" la recibe y le contesta. 68 . 1. los satélites de radioaficionados son repetidoras voladoras. Al usar INMARSAT III como repetidor se produce un desplazamiento Doppler adicional debido al enlace de la estación terrena con el satélite. El satélite la amplifica y la retransmite inmediatamente. ¿Como funciona un satélite? Un radioaficionado "A" emite una señal que es recibida por el satélite. este método de generar una señal de reloj virtual en el satélite se denomina Generación de Señal en Bucle Cerrado . Su nivel es elemental e introductorio y es muy probable que quién desee operar algún satélite deba de consultar otras fuentes. ¿Que es un satélite? En su concepción más sencilla. 2. 73s de XE1KK. Así inicia un comunicado por satélite. La creencia a que operar satélites es complejo y caro no es necesariamente cierta: hay satélites que podemos trabajar sin tener que estudiar el tema por meses ni contar con equipo sofisticado. Presentación Los satélites de radioaficionado son una de las áreas de la radioafición que en México menos se practica. experimentar los Los satélites con órbitas circulares se mantienen mas o menos a la misma distancia de la tierra pero su posición respecto a la superficie varia cada momento. mismas que se citan al final del documento. la comparación de los retardos producidos en los dos enlaces se usa para compensar el retardo de propagación ionosférica en el enlace de subida.Los satélites INMARSAT III poseen un enlace de banda C a banda L y otro de banda C a banda C de baja potencia. para que la señal recibida sea compatible con la señal GPS se debe compensar en tiempo real el enlace de subida al satélite adelantando la señal de reloj una cantidad igual al retardo del enlace de subida y se desplaza ligeramente la frecuencia de la portadora. La presente es una lista de preguntas básicas sobre la operación satelital con sus correspondientes respuestas. Por su parte los satélites de órbitas elípticas. 3. Su principal diferencia con sus equivalentes terrestres el que vuelan y el que al volar se mueven. tiene la característica que pueden permanecen más tiempo viendo un mismo lugar de la tierra y su órbitas son mucho más largas.

entre 4 y 6 veces al día. sur de Estados Unidos. A diferencia de los satélites de órbita baja casi no se nota el efecto dopler. Pero esto no quiere decir que con otras 69 .4. Su órbita tiene dos puntos claves: el más cercano se le conoce como perigeo y el más lejano como apogeo. de altura así que el área que pueden cubrir equivale a toda la República en los más bajos o una área equivalente a México. 8. ¿Como funcionan los satélites de órbita elíptica? Los satélites de órbita elíptica tienen otras características. 7. ¿Cual es la mejor elevación? La elevación optima. Centro América. La sombra mantiene su diámetro pero también se está moviendo. En su apogeo casi toda una cara de la tierra esta disponible para comunicar ya que en el caso de algunos satélites como el OSCAR 13 llega a estar a 38. Estos satélites equivalen en cierta manera a 20 metros en HF: hay buen DX y siempre hay estaciones llamando CQ.000 Km. Tenemos pues más de una hora diaria para usarlo. 6. ¿Como se donde está el satélite?. Los satélites de órbita baja se encuentran entre 400 y 1400 Km. Si consideramos que hay más de 15 satélites de órbita baja nos daremos cuenta que hay más tiempo de satélites que tiempo para hacer radio. que es el movimiento de frecuencia que se origina por la velocidad a la que se mueve el satélite. La duración del satélite en esa posición en muy breve ya que se mueven a gran velocidad. solo se da cuando el satélite pasa exactamente sobre nosotros. Esta área o sombra del satélite permite que cualquier estación que se encuentre dentro de ella pueda. No es la única opción pero hoy por hoy es la más fácil. en principio. Los programas no solo indican y grafican cuando el satélite pasará sino que dan otros datos importantes como la elevación o altitud sobre el horizonte y el azimut o posición respecto a los cuatro puntos cardinales. de distancia. El primero mi favorito y lo vende AMSAT (ver pregunta # 18). contactar otras estaciones que estén dentro de esa sombra. Hay diversos y entre ellos destacan el InstanTrack y el QuickTrack. La duración de cada pase varia dependiendo de la órbita pero en promedio podemos decir que entre 10 y 18 minutos están disponibles para que los operemos. que es de 90 grados. ¿Cuantas veces pasa un satélite sobre nosotros? Un satélite de orbita baja pasa por arriba de un determinado punto. parte del Caribe y norte de Colombia en los de mayor altura. ¿cuando pasará? La predicción de las órbitas satelitales se hace por lo general con ayuda de una computadora personal. ¿Que cobertura tiene un satelite de orbita baja? Al igual que en la repetidoras tradicionales a mayor altitud mayor cobertura. Algo similar como cuando escuchamos una ambulancia o un auto a gran velocidad: el tono de la sirena o el motor es distinto antes y después de que pasan frente a nosotros. 5.

Hay diplomas aunque no hay concursos. Son los mas fáciles de trabajar y casi todos nos iniciamos en ellos.elevaciones no se pueda trabajar. a 50 o 100 kHz de otra banda con todo lo que se encuentre en ella. Para efectos de una computadora da igual cual utilices. 12. Para efectos didacticos podemos dividirlos en cuatro: A) Satélites de órbita baja para voz o analógicos. En pocas palabras: lo que hoy nos gusta del radio casi seguro lo encontramos también vía satélite. 10. Digo mas o menos ya que de vez en cuando alguno queda apagado por falla o mantenimiento. ¿Que tipo de actividad encuentro en los satélites? Hay satélites para todos los gustos. sea CW o banda lateral. Para el experimentador y en constructor de equipos y antenas. Hay espacio para los que les gusta conversar y hacer nuevos amigos. telegrafía. hay plie-ups y DXpediciones que trabajan en split. Existen dos tipos de formatos: NASA o de dos líneas y AMSAT que es mas fácil de entender a los humanos y por lo mismo son mas largos. En los satélites se hace DX tan bueno como en 20 metros. televisión de barrido lento. ¿Como puedo trabajar un satélite? Dependiendo de las caracteristicas de los satélites será la manera de trabajarlos. Praticamente cualquier elevación superior a 2 o 3 grados es suficiente si nuestro horizonte lo forman montañas lejanas o montes cercanos pero no muy altos. 9. en lugar de una sola frecuencia como lo hace un repetidora. teletipo. Entre los satélites de este tipo destacan los rusos RS-10/11 y RS-12/13 y el satélite japonés FUJI OSCAR 20 No se requiere de equipo sofisticado para trabajarlos. ¿Y en base a que información el programa hace estos cálculos?. ¿Cuantos satélites hay? A la fecha hay más o menos 20 satélites de radioaficionados disponibles de una u otra forma. 11. este es un mundo muy amplio. Muchos de los modos de operación que encontramos en las bandas tradicionales también están disponibles en los satélites: banda lateral. FM y packet de diversos tipos. Esto se conoce como "transponder". El sistema por el que operan es el de retransmitir entre 50 y 100 kHz de una banda. quizá solo de un poco de paciencia B) Satélites de órbita baja digitales. Los programas de computadora para seguimiento de satélite se actualizan con una serie de datos sobre los satélites mejor conocidos como elementos Keplerianos que por lo general uno consigue fácilmente de los BBSes de packet o de alguna revista sobre el tema. 70 .

Entre ellos destacan el OSCAR 10. Algunos ya están disponibles para todos. El primero ya está cumpliendo su ciclo de vida y el último no funciono. Son el equivalentes a BBSes de packet voladores. conocidos como pacsats. AMSAT OSCAR 16. el Webersat o WO-18 y el satélite argentino LUSAT o LO-19. Muy pronto habrá nuevos satélites de este tipo: la llamada FASE 3-D. EQUIPO MINIMO NECESARIO PARA TRABAJAR SATELITES EQUIPO PARA EL SATELITE MODO UPLINK DOWNLINK ANTENAS AMP/PREAMP TNC TIPO ---------------------------------------------------------------------------RS-10/11 A 2m/SSB 10m/SBB omni no/no no Analógico DO-17 2m/FM omni no/no 1200 AFSK Digital AO-16 JD 2m/FM 70cms/SSB omni no/no 1200 PSK Digital KO-23 JD 2m/FM 70cms/SSB omni no/no 9600 FSK Digital 71 . El UNAMSAT. el DOVE OSCAR 17. así como otro tipo de experimentos propios del mundo de los satélites. OSCAR 13 y el ARSENE. KITSAT-B. D) Satélites tripulados. Por último las naves espaciales: el MIR ruso y el Space Shuttle norteamericano que como ustedes bien saben traen equipos de dos metros y hacen contacto con radioaficionados en la tierra tanto en voz como en packet. otros siguen en pruebas. A continuación se presenta una tabla con los equipos MINIMOS necesarios para que con un poco de paciencia y tenacidad se pueda trabajar algún satélite. Son como ya dijimos en donde se llevan a cabo las comunicaciones intercontinentales y algunos modos como SSTV y RTTY. EYESAT-A y POSAT-1.Son satélites de órbita circular que operan principalmente packet en sus distintas modalidades. son el UO14. C) Satélites de órbita elíptica. Los satélites tradicionales de este tipo. A la fecha hay más de 10 satélites digitales operando. Los satélites UO-22 y KITSAT OSCAR 23 también son BBS voladores pero trabajan a 9600 bps y tienen entre sus curiosidades cámaras que toman fotos de la tierra y las retransmiten vía packet. primer satélite mexinaco de este tipo muy pronto estará en órbita. El MIR es relativamente fácil de trabajar en packet dado que los cosmonautas permanecen en el espacio por mucho tiempo. 13 ¿Que equipo necesito para trabajar un satélite? Cual es el equipo necesario para trabajar satélites es siempre una difícil pregunta. Una nueva generación de satélites digitales fue lanzada recientemente: el ITAMSAT-A.

En satélite el modo significa las bandas que estoy utilizando para trabajar al satélite: que banda uso en el uplink.2 MHz) 10 metros (29 MHz) L 23 cm. son satélites utilizados para la observación de planetas. Suelen utilizar órbitas geosíncronas. Modo Uplink Downlink ---------------------------------------------------A 2 metros (145 MHz) 10 metros (29 MHz) B 70 cm. otras armas orbitales y objetivos. son los empleados para realizar telecomunicación.4 GHz) T 15 metros (21. órbitas de Molniya u órbitas bajas terrestres. misiles balísticos o MIRV. CW. Satélites de comunicaciones. Biosatélites. (435 MHz) 2 metros (145 MHz) J 2 metros (145 MHz) 70 cm. esto es para transmitir o subir al satélite y el downlink o la banda en la que el satélite transmite de regreso o baja y en la que nosotros recibimos. (435 MHz) S 70 cm. galaxias y otros objetos astronómicos.AO-13 B 70cms/SSB 2m/SSB yagis si/si no Elíptico MIR/STS 2m/FM 2m/FM omni no/no 1200 AFSK Tripul ---------------------------------------------------------------------------14. (435 MHz) K 15 metros (21. En HF el modo es el tipo de emisión en el que trabajamos: SSB. ¿Que es el "modo" en los satélites? El término modo de los satélites es uno de los que hacen parecer complicada esta área de la radioexperimentación.2 GHz) 70 cm. FM. mientras que otros usan armas de energía o partículas para destruir satélites. Tipos de satélite (por tipo de misión) • • • • Armas antisatélite. (435 MHz) 13 cm. generalmente con propósitos de experimentos científicos. también denominados como satélites asesinos. Algunos están armados con proyectiles cinéticos. (1. son satélites diseñados para destruir satélites enemigos. (2. 72 . etc.2 MHz) 2 metros (145 MHz) Tipos de satélites artificiales Se pueden clasificar los satélites artificiales utilizando dos de sus características: su misión y su órbita. diseñados para llevar organismos vivos. Satélites astronómicos.

El Sol terrestre sigue éste tipo de órbita alrededor del centro galáctico de la Vía Láctea. Estaciones espaciales. son satélites de observación o comunicaciones utilizados por militares u organizaciones de inteligencia. microsatélites. Satélites meteorológicos. también denominados como minisatélites. Satélites de reconocimiento. LEO Son satélites de órbita baja están a una altura de 700 a 1400 km y tienen un periodo orbital de 80 a 150 minutos. cometas y asteroides siguen esa órbita. además de satélites artificiales y basura espacial. es empleado en escuelas publicas y negocios rurales. Satélites de energía solar. son característicos por sus dimensiones y pesos reducidos. Tipos de satélite (por tipo de órbita) Clasificación por centro • • • Órbita galactocéntrica: órbita alrededor del centro de una galaxia. Satélites de navegación. los planetas. Una estación espacial se distingue de otras naves espaciales tripuladas en que no dispone de propulsión o capacidad de aterrizar. Existen aproximadamente 2. esto significa que rota igual que la tierra a una altura de 36. Satélites de observación terrestre. son utilizados para la observación del medio ambiente.000 km sobre el ecuador. meteorología. esta enfocada a localidades donde no llegan otro tipo de tecnologías y con el objetivo de cubrir necesidades de comunicación. este es utilizado por empresas celulares con la llamada tecnología GPS. son satélites utilizados principalmente para registrar el tiempo atmosférico y el clima de la Tierra. En el Sistema Solar. Órbita heliocéntrica: una órbita alrededor del Sol. 73 . datos e Internet a empresas privadas y de gobiernos. son una propuesta para satélites en órbita excéntrica que envíen la energía solar recogida hasta antenas en la Tierra como una fuente de alimentación. utilizando otros vehículos como transporte hacia y desde la estación. MEO Es de órbita mediana rota de 10. Es posible clasificarlos por tipos de órbitas satelitales GEO Orbita Geosestacionaria. denominados popularmente como satélites espías.000 km y tiene un periodo orbital de 10 a 14 horas. La mayoría de los gobiernos mantienen la información de sus satélites como secreta. cartografía sin fines militares. son estructuras diseñadas para que los seres humanos puedan vivir en el espacio exterior. este tipo de satélites son utilizados para brindar servicios de voz.465 satélites artificiales orbitando alrededor de la Tierra. por lo tanto tiene un periodo orbital de 24 horas y muestra un retardo entre 700 y 800 milisegundo. Órbita geocéntrica: una órbita alrededor de la Tierra. utilizan señales para conocer la posición exacta del receptor en la tierra. nanosatélites o picosatélites.• • • • • • • Satélites miniaturizados.000 a 20.

000 km Órbita media terrestre (MEO): una órbita geocéntrica con una altitud entre 2.786 km. Por tanto.786 km. tiene una inclinación de 90º o aproximada. Órbita hiperbólica: una órbita cuya excentricidad es mayor que uno. la nave escapa de la atracción gravitacional y continua su vuelo indefinidamente. o Órbita de transferencia geosíncrona: una órbita elíptica cuyo perigeo es la altitud de una órbita baja terrestre y su apogeo es la de una órbita geosíncrona. Órbita parabólica: una órbita cuya excentricidad es igual a uno. Clasificación por inclinación • Órbita inclinada: una órbita cuya inclinación orbital no es cero.• Órbita areocéntrica: una órbita alrededor de Marte.000 km y hasta el límite de la órbita geosíncrona de 35. o Órbita tundra: una órbita muy excéntrica con una inclinación de 63. 74 . También se la conoce como órbita circular intermedia.4º y un período orbital igual a un día sideral (unas 24 horas). la velocidad es igual a la velocidad de escape. Órbita alta terrestre (HEO): una órbita geocéntrica por encima de la órbita geosíncrona de 35. también conocida como órbita muy excéntrica u órbita muy elíptica. Órbita elíptica: una órbita cuya excentricidad es mayor que cero pero menor que uno y su trayectoria tiene forma de elipse. o Órbita polar heliosíncrona: una órbita casi polar que pasa por el ecuador terrestre a la misma hora local en cada pasada. o Órbita de transferencia geoestacionaria: una órbita elíptica cuyo perigeo es la altitud de una órbita baja terrestre y su apogeo es la de una órbita geoestacionaria.4º y un período orbital igual a la mitad de un día sideral (unas doce horas). En estas órbitas. o Órbita polar: una órbita que pasa por encima de los polos del planeta. Clasificación por excentricidad • • • • Órbita circular: una órbita cuya excentricidad es cero y su trayectoria es un círculo. o Órbita de Molniya: una órbita muy excéntrica con una inclinación de 63. o Órbita de transferencia de Hohmann: una maniobra orbital que traslada a una nave desde una órbita circular a otra. En tales órbitas. Clasificación por altitud • • • Órbita baja terrestre (LEO): una órbita geocéntrica a una altitud de 0 a 2.

Órbita semisíncrona: una órbita a una altitud de 12. Órbita areosíncrona: una órbita síncrona alrededor del planeta Marte con un periodo orbital igual al día sideral de Marte. Estos satélites trazarían una analema en el cielo. un satélite trazaría una analema en el cielo. o Órbita cementerio: una órbita a unos cientos de kilómetros por encima de la geosíncrona donde se trasladan los satélites cuando acaba su vida útil.768 km. Órbita heliosíncrona: una órbita heliocéntrica sobre el Sol donde el periodo orbital del satélite es igual al periodo de rotación del Sol. Clasificación por sincronía • • • • • • Órbita síncrona: una órbita donde el satélite tiene un periodo orbital igual al periodo de rotación del objeto principal y en la misma dirección.o o Órbita de escape: una órbita parabólica de velocidad alta donde el objeto se aleja del planeta.544 km aproximadamente y un periodo orbital de unas 12 horas. Para un observador en el suelo. Los satélites artificiales también pueden ser catalogados o agrupados según el peso o masa de los mismos. 24. Órbita areoestacionaria: una órbita areosíncrona circular sobre el plano ecuatorial a unos 17. o Órbita geoestacionaria: una órbita geosíncrona con inclinación cero. Un ejemplo es el asteroide (3753) Cruithne.6229 horas. Otras órbitas • • Órbita de herradura: una órbita en la que un observador parecer ver que órbita sobre un planeta pero en realidad coorbita con el planeta. Se sitúa a aproximadamente 0. el satélite parecería un punto fijo en el cielo. Punto de Lagrange: los satélites también pueden orbitar sobre estas posiciones.000 km de altitud. Órbita de captura: una órbita parabólica de velocidad alta donde el objeto se acerca del planeta.1628 UA. Desde el suelo. Órbita geosíncrona: una órbita a una altitud de 35. Similar a la órbita geoestacionaria pero en Marte. Clasificación de los satélites según su peso • • • • • Grandes satélites: cuyo peso sea mayor a 1000 kg Satélites medianos: cuyo peso sea entre 500 y 1000 kg Mini satélites: cuyo peso sea entre 100 y 500 kg Micro satélites: cuyo peso sea entre 10 y 100 kg Nano satélites: cuyo peso sea entre 1 y 10 kg 75 .

Actualmente más de 200 satélites de telecomunicaciones proporcionan. Existe también otros países que tienen capacidad para diseñar y construir satélites. Una de las opciones más veloces de acceso a Internet. el jefe de la División de Servicios de Telecomunicaciones de la Agencia Europea del Espacio. también para aquellas redes que requieran una pronta instalación y sobre todo la unificación. hacia el año 2015 aproximadamente. pero no han podido lanzarlos de forma autónoma sino con la ayuda de servicios extranjeros. capaces de contener mil canales de TV y dar cobertura a un millón de abonados de móviles e internet. en tierra. Países con capacidad de lanzamiento Satélites multispot En menos de una década. multicast de archivos. se podrá disponer de satélites multispot de comunicaciones.000 canales de televisión. Y es que las telecomunicaciones por satélite constituyen la aplicación más desarrollada del espacio. los cuales permiten el establecimiento de enlaces para voz y datos a terminales móviles. La mejor forma de llegar a comunidades retiradas donde no se cuenta con infraestructura de conectividad es por medio de enlaces satelitales.• • Pico satélite: cuyo peso sea entre 0. Así lo ha informado hoy José María Casas. cambio de archivos (unicast). desde la órbita geoestacionaria. datos e internet y se proporcionan los enlaces de contribución de programas o noticias. se ofrecen decenas de miles de circuitos entre centrales de telefonía. de antena multihaz y veinte kilovatios de potencia. mensajería. VPN (IPSEC). Prestamos servicios de acceso a internet. mar y aire. Streaming multicast. Otro tipo de satélites de telecomunicaciones son los dedicados a servicios móviles. 76 . incluyendo la fabricación del vehículo de lanzamiento. soporta transacciones. todo esto con el mismo equipo. la infraestructura desde la que se transmiten cerca de 20.1 y 1 kg Femto satélite: cuyo peso sea menor a 100 g Un total de diez países y el grupo formado por la ESA (Agencia Espacial Europea) han lanzado satélites a órbita.

Es una buena alternativa no sólo para acceder a Internet desde cualquier lugar sin importar su ubicación. 77 . Su velocidad La comunicación se realiza a través de ondas electromagnéticas de alta frecuencia que viajan en el espacio libre y llegan hasta un satélite geoestacionario (satélite Mexicano en la banda ku). sino también para compartir información como en el caso de las escuelas rurales. proyectos de investigación que requieren contar con una conexión permanente para poder enviar o recibir información.048 Kbps (kilo bites por segundo) con todas las ventajas de acceso a Internet que ofrecen otros medios de conexión y aunque representa un costo muy elevado para usos domésticos. u otro vehículo. conectándose vía satélite a su servidor. es una alternativa muy rentable para aplicaciones comerciales y de investigación. o sistemas móviles utilizados por dependencias públicas para llevar sus servicios a lugares apartados de las grandes ciudades. el equipo automáticamente se auto-orienta y se conecta a un satélite). o conectarse a un mismo servidor. que permita su traslado continuo.puede variar entre 64 y 2. razón por la cual. • Consta de una antena parabólica que puede ser de 90 a 120 cm de diámetro (con transmisor y receptor integrados). los sistemas de cómputo pueden estar ubicados en cualquier parte del mundo. antenas autoorientables (con la ayuda de tablas matemáticas que proporciona el proveedor del servicio. e inclusive estar instalados en una camioneta.

a diferencia de algunas compañías que hace algunos años ofrecían una conexión híbrida en donde la información se recibía a través del satélite pero se enviaba por otro medio terrestre. se recibe y envía a través del satélite. • • El satélite retransmite los datos y son recibidos por la antena parabólica. lo caracteriza un enlace de tipo bidireccional. Así mismo. un módem especial para enlace satelital. 78 . pero también hay del tipo simétrico (mismo ancho de banda para transmisión y recepción). A su vez la IDU contiene un puerto RJ45 que se conecta a un HUB o switch de cualquier red. Este servicio puede conectarse a cualquier equipo de cómputo de modelo reciente. un puerto Ethernet 10/100 base T que se conecta a un hub. con buena capacidad en disco duro. dando por resultado que se podían recibir archivos pesados pero no se podían enviar. que en terminos sencillos es como una computadora (pero sin teclado ni mouse) que cuenta con: dos puertos que están conectados a la antena (uno es para el canal de recepción y otro para el de transmisión). La conexión de este servicio es principalmente asimétrica. Posteriormente. normalmente colocada en el techo de la casa del usuario. los datos pasan a través de un convertidor (módem especial) que los envía por medio de una red Ethernet hacia la computadora. que permite conectar más de una computadora. que permite la conexión de varias computadoras y. es decir. es decir que utiliza el mayor ancho de banda para la recepción de datos y menor para el envío. como el teléfono.• Un equipo IDU Indoor unit.

como nuclear en el espacio y así posicionarse como la mayor potencia en el mundo. video y cualquier aplicación IP. ya que alcanza horizontes que la tecnología de cable jamás podrá alcanzar. 79 . Soporta enlaces VPN. se puede observa que la tecnología satelital supera por mucho a la tecnología de conexión terrestre.El costo dependerá de los requerimientos del usuario. pero el resultado no fue de destrucción si no todo lo contraria fue de beneficio. • • • • • No hay retraso (conocido como delay) al conectarse a Internet. con excepción del módem especializado para satélite.367 dólares mensuales. Todos sus componentes. Este sistema utiliza solamente protocolos e interfaces estándar. datos. ya que se descubrí una forma para comunicarse mas rapidez con eficacia y teniendo un mayor beneficio para la humanidad. CONCLUCIONES Con la información dada y haciendo un análisis profundo y detallado de sus ventajas y desventajas. y a su vez fáciles de instalar y mantener. más la inversión en el equipo. para la destrucción del enemigo la cual constaba de tener armamento tanto militar. A través de ella se obtuvo una rápida aceleración de desarrollo tecnológico ya que esta tecnología se obtuvo de un guerra de muchos años entre dos grandes potencias que añoraban esta tecnología. En esta guerra fría o carrera armamentista en la cual la unión soviética estaba a la vanguardia ya que fueron los primeros en lanzar un satélite artificial. en cuanto a velocidad y servicio y va desde los 386 a los 4. Funciona como cualquier estación terrena dedicada para una conexión de acceso a Internet con servicio digital. Transmite voz. son productos disponibles comercialmente.

pero no fue sino hasta hace 50 años que estuvo disponible la tecnología para hacer de este sueño una realidad. la última frontera…” como dijo el Capitán Kirk. Y resulta que tenía razón porque el hombre siempre se ha esforzado por explorar lo que reposa más allá de su horizonte. pusimos la mira en las estrellas. Pioneros 80 .Exploración del Espacio “El Espacio. cómo empezó la vida en nuestro planeta y qué le pasará a la tierra en el futuro. Podemos aprender de dónde venimos. Una vez que descubrimos cada rincón de nuestro mundo. La exploración del espacio no se trata simplemente de descubrir si existen hombrecitos verdes en otros planetas.

Aldrin y Neil Arsmstrong escalaron hasta una cápsula lunar. Armstrong puso un pie en la luna y dijo las famosas palabras: “Este es un paso pequeño para el hombre. La nave fue la Freedom 7.Después de los primeros viajes exitosos en satélites pequeños no tripulados. Luego de alcanzar la órbita lunar.Schmitt estuvieron 22 horas en la luna y manejaron 35 km. Aterrizó sano y salvo en Siberia. el 12 de Abril de 1961. Michael Collins permaneció en la órbita de la luna.Gagarin (1934-1968) quien dió la vuelta a la tierra a bordo del Wostok 1. John H. Siguió una trayectoria balística y completó un vuelo sub-orbital de 15 minutos. en su camioneta lunar. El Programa Ruso Sojus fue el equivalente del Programa Americano Gemini y ambos desarrollaron la tecnología necesaria para llegar a la luna. Estuvo en el espacio Buzz Aldrin da sus por 1 hora y 48 minutos. El 20 de Julio. Los estadounidenses siguieron el ejemplo con su Programa Mercurio.56. En los dos años sobre la Luna.Shepard fue el primer estadounidense en llegar al espacio. la cápsula lunar voló hasta la superficie de la luna y aterrizó en el borde de Mare Tranquillitatis. El 5 de Mayo de 1961.Glenn Jr. el 21 de Julio a las 3. siguientes. los rusos y los americanos enviaron perros y primates al espacio para investigar el efecto de la ausencia de peso en seres vivos. Las misiones a la luna planeadas por los Estados Unidos se completaron con el vuelo del Apolo 17 en Diciembre de 1972. Edwin E. El 20 de Febrero de 1962. El Apolo se lanzó el 16 de Julio de 1969.. Pero este éxito tuvo un precio: 21 astronautas han muerto desde el inicio de los vuelos espaciales tripulados el 12 de Abril de 1961. Los vuelos del Gemini se realizaron de 1965 a 1966. Alan B. orbitó la tierra tres veces. logró 327 km. Transbordadores 81 . se realizaron cinco vuelos más del Wostok. El primer hombre en el espacio fue el cosmonauta Juri A. Los astronautas Cernan y Harrison H. el primer astronauta estadounidense. un salto gigante para la humanidad”. y un perigeo de 180 primeros pasos km. Pocas horas después.

totalizando 77 toneladas con los motores internos. En una de las misiones. Luego del accidente del Challenger. en el Centro Espacial Kennedy. Columbia – El Transbordador más Viejo El Columbia (que pesó 71 toneladas y fue modificado y mejorado unas 150 veces) fue reacondicionado entre el otoño de 1999 y la primavera del 2002 y lanzado de nuevo el 1 de Marzo del 2002. dos pilotos efectuaron el primero de cuatro vuelos de prueba a 7000 metros. Explotó a unos 62. En 1977. Pero nunca se efectuó un lanzamiento con la sección Centaur.Enterprise – El Prototipo El transbordador prototipo fue bautizado con ese nombre por la nave Enterprise. Discovery – El Tercer Transbordador A pesar de que el Discovery fue construido como el Challenger. el Challenger explotó 73 segundos antes de despegar y murieron sus siete tripulantes. se desintegró durante un descenso sobre Texas. el transbordador estuvo en el espacio por 69 días y dió vueltas a la tierra 987 veces. El 28 de Enero de 1986. Atlantis – El Cuarto Transbordador La nave espacial Atlantis tenía vacía. pesó 3 toneladas menos que el Columbia. Challenger – El Segundo Transbordador El segundo transbordador en entrar en operación completó su primer vuelo en 1983. El desastre fue probablemente ocasionado por una falla en el escudo termal. Llevó a misiones tales como el Explorador Planetario Galileo en 1989 y liberó en el espacio el observatorio de Rayos 82 . En 1979 el Enterprise fue unido a un tanque de combustible y a propulsores. un peso de 68 toneladas. Pero el transbordador nunca llegó a despegar debido a que ya se habían completado los trabajos en el Columbia y éste hizo su vuelo inaugural el 12 de Abril de 1981. de la popular serie televisiva Viaje a las Estrellas. permitiéndole llevar en el compartimiento de carga al cohete auxiliar Centaur. esto fue puesto en pausa por considerarse muy riesgoso.000 metros. el astronauta Bruce McCandless abandonó el transbordador sin un cordón de seguridad e hizo una caminata espacial de 30m. Durante sus diez misiones. El 1 de Febrero de 2003. Fue el primero en hacer eso.

Existen dos tipos de sistemas de despegue: el Vehículo de Propulsión Prescindible (ELV). lo que significa que la nave espacial no usa energía transportando piezas que no necesita. La única nave que usa Vehículos de Propulsión Reutilizable (RLV) es el transbordador espacial de Estados Unidos. 83 . Los tanques de combustible y los cohetes son desechados después del lanzamiento en un proceso llamado “nivelación”. Propulsores Los propulsores son los enormes cohetes que impulsan a la nave espacial o vehículo de carga hacia la órbita. De manera sorprendente. el cual sólo puede ser utilizado una vez. después de ser reparados pueden ser utilizados nuevamente. Endeavour El Transbordador más Nuevo Los niños de escuela estuvieron particularmente activos en la búsqueda de un nombre para este nuevo transbordador. La primera misión del Endeavour fue en Mayo de 1992.Gamma Arthur Holley Compton en 1991. Todos los satélites y las sondas utilizan Vehículos de Propulsión Prescindible (ELV). los cuales. desarrollado a partir de misiles balísticos en los 50. Éste último desecha sus tanques de combustible al despegar. conservando sus cohetes. el Endeavour puede permanecer en el espacio hasta por 28 días. Ganó Endeavour. La misión implicaba una espectacular operación de rescate de un satélite de comunicaciones que había salido de control.

000 años en sumarse a los ya conocidos duplica el diametro del sistema solar reconocido hasta entonces. Galileo Galilei pone a prueba el primer telescopio. girando a su alrededor. La idea es que nos pueda brindar una inmersión en la constitución de un cometa y las implicaciones que tendría si uno llegara a estrellarse contra nuestro planeta. El hallazgo del nuevo planeta. Esto incluirá una misión a la luna con robots a más tardar el 2008. Urano. sorprendente logro de Herschel  En 1781 se descubre Urano. tripuladas y con robots. Neptuno. un modesto cilindro de tres centimetros de diametro. su descubridor es el astrónomo alemán Friedrich Wilhelm Herschel. dos lentes y y cincuenta aumentos explorando el firmamento y dando comienzo a la astronomia moderna. Titania y Oberon. ubica la posición de Neptuno. En Noviembre del 2004 la nave espacial Swift despegó de Cabo Cañaveral. Actualmente tiene una “Visión para la Exploración del Espacio” que planea incluir una serie de misiones. planeta desde el Observatorio de Berlin.000 km/h y el impacto podrá observarse desde la tierra. Disparará una gigantesca “bala” de cobre en el interior del cometa a 45. La razon de esta singular carateristica ajena a los demas planetas continuara siendo un enigma. lo que sentará las bases para la futura exploración de Marte. Es el primer observatorio de ondas múltiples diseñado para estudiar la ciencia explosiva de los rayos Gamma. Galileo y el primer telescopio En 1609 en el campanario de San Marcos en Venecia.Los Estados Unidos en el Espacio La Administración Nacional de Espacio y Aeronáutica (NASA) es la agencia espacial más grande y conocida del mundo. Deep Impact se lanzará en Diciembre del 2004 y viajará 133 millones de kilómetros para encontrarse con el cometa Temple1.  En 1787 el mismo Herschel descubre dos satelites. el octavo planeta En 1847 el astrónomo Johann Gottfried Galle. el primero en los ultimos 5. a 84 . La inclinacion de sus orbitas indica sorprendente que el eje de rotacion de Urano esta proximo al plano de su revolucion orbital. el séptimo planeta del sistema solar por orden de distancia creciente a partir del Sol. pocos meses mas tarde el dispositivo le permite observar por primera vez los satelites mayores de Jupiter y mas tarde los anillos de Saturno. el octavo l 8vo.

partir de los cálculos realizados por J. con el lanzamiento de la sonda Pioneer 10 de los EE. La Pioneer 10 al pasar junto al mayor de todos los planetas transmite unas 300 fotografiías de resolución media de Jupiter y de sus satélites. ampliar Pioneer 10 : primer acercamiento a Jupiter A partir de 1972 da comienzo una ambiciosa exploración de los planetas exteriores. Venezuela reportaron el hallazgo de un nuevo cuerpo celeste entre las órbitas de Neptuno y Plutón de 650 kilómetros de diámetro aproximadamente.  En 1964 comienza la exploracion robotica de Marte. Exploración de Venus En 1989 EE. Leverrier e independientemente por J. cuando ha pasado menos de una década desde el lanzamiento del primer satelite artificial. A continuación el campo gravitatorio del planeta lo situa de acuerdo a lo planeado en una nueva trayectoria con rumbo a mas alla de la órbita de Plutón la que atravesará en 1987 convirtiéndose en el primer ingenio artificial humano en abandonar el sistema solar. serán los primeros ingenios humanos en hacerlo. La fase del encuentro con Júpiter requirió dos meses y la máxima aproximación tuvo lugar el 3 de diciembre de 1973. Se especula que el planetoide siempre estuvo alli desde los orígenes del sistema solar esperando ser descubierto. en 1994 concretará el mapeo completo del planeta por radar. Fuente.UU. lanza la sonda espacial Magallanes con destino a Venus. Exploración del Espacio . El caso representa otra evidencia mas de las sorpresas que puede depararnos todavia el 85 . los que serán fotografiados y medidos durante las visitas de las naves Voyager.Las sondas a los planetas Ediciones Quarto/Orbis 1985 Misiones Voyaguer I y II En 1977 son lanzadas las naves espaciales Voyaguer I y II.  Durante este mismo año mediante el telescopio Kuiper se descubren los primeros nueve anillos del planeta Urano. La sonda se lanza con destino a Júpiter en un viaje programado de 21 meses y un recorrido de casi 1. para explorar nuestro sistema solar. Nuevo planetoide entre Neptuno y Plutón En octubre de 2000 astrónomos estadounidenses y venezolanos utilizando el telescopio del Observatorio CIDA de Mérida. sus trayectorias finales las llevarán luego a un viaje sin fin por el universo.UU.UU.000 millones de kilómetros. Adams. por EE. Transcurridos unos 180 días desde el lanzamiento la nave entra al anillo de asteroides existente entre Marte y Jupiter sin sufrir daños. C.

Como resultado de la misma Plutón que desde 1930 ha sido reconocido como el noveno planeta del sistema solar pierde su condicion de tal siendo relegado a la categoría de "planeta enano" quedando asi el sistema solar reducido oficialmente a ocho planetas. El importante descubrimiento esta lejos de colmar las expectativas de quienes esperan en algún momento detectar un planeta masivo y desconocido en una órbita aun mas lejana el que ademas de explicar algunas perturbaciones orbitales de los planetas exteriores podría dar credito finalmente a la relación de distancias propuesta por la secuencia de Titus-Bode.Agosto de 2006.000 millones de kilometros de la Tierra y mas alla de Pluton. Quoaoar ( 2002 LM60) es el nombre provisorio con que se ha bautizado al planeta a la espera del nombre que vote la Unión Astronómica Internacional Fuente. las galaxias exteriores estarán sometidas a una mayor fuerza graviatoria total y por tanto a una mayor aceleración. En base a información de BBC World Service Plutón: el 9no. Su período orbital se calcula en 288 años. la Unión Astronómica Internacional (IAU) define el concepto de planeta. confirmandose que las evidencias de su existencia databan de 1982 aun cuando entonces no se habia logrado identificarlo como tal. alcanzando mayores velocidades. Materia oscura Primeras evidencias de materia oscura Desde los años treinta se sabe que las velocidades peculiares de las galaxias en cúmulos corresponden a una masa total del cúmulo de aproximadamente un orden de magnitud mayor que el total de toda la materia luminosa observada dentro de las propias galaxias. Este mismo argumento nos permite calcular la masa utilizando medidas de las mayores 86 . tras polémica redefinición planetaria . criticas que por otra parte tambien se han reactualizado respecto a Plutón. Quaoar: nuevo planeta mas allá de Plutón En octubre de 2002 se anuncia oficialmente el hallazgo de un nuevo planeta cerca del cinturon de asteroides de Kuiper a 6.futuro respecto a descubrimientos dentro de nuestro sistema solar y en sus vecindades. La única fuerza apreciable entre las galaxias de un cúmulo es la gravedad. Hay una maneras simple de hacer una estimación de la masa del cúmulo. Cuanto mayor sea la masa de un cúmulo. No obstante debido a su tamaño (1280 kilómetros de diametro) que subsisten polemicas acerca de la procedencia de otorgarle el caracter de un verdadero planeta. planeta de baja. ¿Cómo se sabe esto?. En Praga. la velocidad media de las galaxias de un cúmulo es una medida de su masa – El lector puede visualizar este hecho utilizando esta simulación java–. Por tanto.

El lector puede visualizar diferentes tipos de curvas de rotación según la masa central en esta aplicación java. con las estrellas girando en órbitas cerradas alrededor del centro donde se concentra una gran cantidad de masa. Aunque existe al menos una teoría dinámica alternativa (MOND) y alguna teoría gravitatoria alternativa (Gravedad Conforme por ejemplo). En este caso. Bien las leyes dinámicas o bien la teoría gravitatoria que aplicamos a esas escalas no son correctas. como podemos observar en el ejemplo de la curva de rotación de la derecha correspondiente a la galaxia NGC3198 (fuente: Berkeley). a través del desplazamiento doppler. éstas tienen algunos problemas y de momento nadie ha encontrado ninguna desviación de las predicciones de la Teoría General de la Relatividad. Sólo podemos obtener una instantánea del cúmulo junto con una medida. Siempre por supuesto. o en caso contrario las galaxias se habrían alejado del cúmulo. La representación de la velocidad de rotación frente a la distancia se denomina curva de rotación. Por tanto. Sin embargo. Si imaginamos una galaxia a modo de Sistema Solar. Evidencias aún más rotundas También.velocidades que se observan en el cúmulo. de las velocidades peculiares de cada galaxia. Éstas no pueden ser mucho mayores que la velocidad de escape. las observaciones indican otra cosa. una idea simple en astronomía suele estar acompañada de dificultades observacionales. o que simplemente sean galaxias de fondo atravesando la franja del cielo donde está el cúmulo. Pero podría pasar que las galaxias con velocidades más elevadas estuvieran realmente escapando del cúmulo. desde luego que no podemos observar las galaxias moviéndose realmente. Existe una cantidad de materia distribuida de manera diferente a la materia visible 2. desde los años sesenta se ha observado una situación similar en las partes exteriores de las galaxias espirales y al menos en algunas elípticas. antes de abandonar 87 . Sólo existen dos posibles explicaciones a este fenómeno: 1. o que no pertenezcan realmente a éste. cabría esperar entonces que las velocidad de las estrellas disminuyeran a medida que nos alejamos del centro siguiendo una ley kepleriana del tipo del inverso de la raíz cuadrada de la distancia. La velocidad parece mantenerse prácticamente constante hasta el límite observacional externo de la galaxia.

Sin embargo se pueden hacer modificaciones en la teoría que permita la existencia de neutrinos masivos de forma que tienen que ser las 88 .sin motivos suficientes una teoría consistente de tal éxito observacional como la Relatividad General tenemos que probar con la alternativa más simple. ¿Por qué piensan los cosmólogos en estos tipos de materia exótica?. Todo esto nos lleva a que al menos un 85% de la materia está formada por algún tipo de materia exótica. La razón es que muchas observaciones convergen a un valor del parámetro de densidad del orden de un 30% de la densidad crítica. lo que implica que debe haber mucha materia no detectada en forma de objetos compactos denominados habitualmente MACHOS (del inglés Objetos Compactos del Halo [Galáctico]). los años ochenta trajeron a escena otra fascinante idea: que la materia oscura está formada por neutrinos o alguna forma más exótica de partículas aún no descubierta en los laboratorios de altas energías. Sin embargo. El neutrino es una partícula emitida en la desintegración beta donde un protón (p) reacciona con un antineutrino (n-)convirtiéndose en un neutrón (n) y un positrón (e+) [reaction#1] ó un protón (p) interacciona con un electrón (e-) para producir un neutrón (n) y un neutrino (n). Materia oscura no bariónica Antes de 1980 se asumía habitualmente que esta "materia oscura" era materia ordinaria en alguna forma no detectable como gas. indica que la cantidad de materia bariónica (aquella formada por protones y neutrones) no puede ser muy diferente de un 4 a 5% de la densidad crítica. Tipos de materia exótica no bariónica Neutrinos La primera partícula que se pensó podía formar parte de esta materia oscura fue el neutrino. es decir. estrellas de baja masa y cadáveres estelares del tipo enana blanca o agujero negro. el modelo de formación de los elementos químicos ligeros en los primeros instantes del universo. el neutrino es una partícula que no tiene masa. Pero la nucleosíntesis primigénea. En el Modelo Estándar de la física de partículas. El total de materia luminosa visible está por debajo de esta cantidad.

Un átomo de hidrógeno pesa (en unidades de energía) unos 1000 MeV. Por tanto la masa del neutrino tendría que ser del orden de unos 10 eV para que pudiera constituir el resto de la masa oscura. Pero si los neutrinos constituyen la masa dominante de estructuras como galaxias podemos hacer una nueva estimación de la masa del neutrino de la siguiente manera: Las galaxias tienen unas masas dinámicas que podemos deducir aproximadamente del simple hecho de que las estrellas estén unidas gravitacionalmente al cuerpo de la galaxia.observaciones o los experimentos los que decidan cuál es el caso. Esto implicaría una contribución escasa a la densidad de materia del universo. lo que los convierte en lo que se denominan partículas relativistas. Al ser el neutrino una partícula sin masa o tremendamente ligera se mueve a la velocidad de la luz o a velocidades muy cercanas. Los neutrinos son fermiones (partículas de spin semientero) y el principio de exclusión de Pauli establece un máximo de densidad de neutrinos del orden de un millón por centímetro cúbico. Se debe cumplir entonces que la energía de ligadura gravitacional (G m M/r) sea como muy poco del orden de la energía cinética de las estrellas (1/2 m v2). Teniendo en cuenta que la densidad crítica es del orden del peso de 2 ó 3 átomos de hidrógeno por metro cúbico.05 y 8. si los neutrinos tienen que contribuir con algo así como del orden de la densidad detectada (1/3 de la densidad crítica aprox.) tendríamos que unos 100 millones de neutrinos tendrían que pesar algo así como un átomo de hidrógeno. Esto establece una masa mínima para el neutrino de unos 30 eV. situada en algún lugar entre 0. Actualmente se denomina a cualquier tipo de partículas relativistas en cosmología materia oscura caliente (del inglés Hot Dark Matter o abreviado HDM) La nucleosíntesis primigénea establece que el número de tipos de neutrinos sólo puede ser tres (hecho que confirman los experimentos del CERN) y que su número actual tiene que ser del orden de unos 115 neutrinos de cada especie por centímetro cúbico. lo que es incompatible con el cálculo anterior que establecía un límite superior de unos 10 eV. 89 . Por ejemplo.001 y 0. Medidas más recientes estiman la suma de los tres tipos de neutrinos en algún lugar entre 0. Las medidas del experimento Super-Kamiokande de 1999 indican que la masa del neutrino es probablemente mucho menor que esta cantidad. La medidas del CERN ponen un límite superior a la masa del neutrino más pesado de unos 9 eV. para nuestra galaxia. con el Sol situado a unos 10 kpc gira con una velocidad de unos 220 km/s implica una masa mínima de algo más de 5 ×109 masas solares. con objeto de que éstas no escapen de sus órbitas.4 eV .18 de la densidad crítica.

las grandes estructuras galácticas como los supercúmulos tienden a formarse primero que las pequeñas estructuras como los cúmulos de galaxias (que se suele denominar formación de arriba a abajo). procedente de tres observaciones independientes: 90 . Cuando ponemos tanta masa de neutrinos en el universo. Pero hay un problema más grave que todo esto. abreviada CDM) a cualquier tipo de partículas relativamente masivas que se mueven a velocidades mucho menores que la velocidad de la luz. Su inserción en las simulaciones de la formación de las estructuras galácticas consigue mejorar la semejanza con los observado (ver comparación en la figura anterior) Las partículas que podrían formar la materia oscura fría podrían tener masas que rondan el Gigaelectrónvoltio e interactuarían sólo a través de la interacción débil y de la gravedad. Comparación entre la distribución de galaxias observada (c). Además las concentraciones de materia en los grandes supercúmulos sería considerablemente mayor de lo observado (ver modelos de formación galáctica para más detalles). Lo intrigante del caso es que existe evidencia de que ésta podría ser de hecho la situación. Se denomina materia oscura fría (del inglés Cold Dark Matter. lo que contradice las observaciones que indican una formación relativamente reciente de las grandes estructuras (más compatible con una formación de estructuras jerarquizada de abajo a arriba). 2.Las observaciones de la supernova 1987A también son compatibles con la existencia de tres tipos de neutrinos y con un límite superior de la masa del neutrino electrónico de unos 25 eV. Por ello se les suele llamar WIMPs (de Weak Interacting Massive Particles o partículas masivas débilmente interactuantes). y una simulación numérica de las estructuras galácticas resultantes en un modelo de universo con neutrinos (b) y un modelo de universo con partículas más masivas y lentas (a) Materia oscura fría. implicando un universo que podría estar incluso acelerando su expansión. La búsqueda de este tipo de partículas como parte de la materia oscura tienes dos motivaciones básicas: 1. Energía Oscura Tanto la Relatividad General como la mismísima gravitación Newtoniana permiten la existencia de un término que puede producir una repulsión gravitatoria a gran escala. Algunos de estos tipos de partículas han sido propuestas desde la teoría pero nunca observadas hasta la fecha. Su existencia es una característica general de las teorías de gran unificación que intentan unificar todas las interacciones a excepción de la gravedad.

Detectando MACHOS (Objetos Compactos del Halo Galáctico) Cuando un objeto compacto del Halo Galáctico como un planeta gigante. y por tanto de geometría espacial plana (ver noticia del 11 de febrero de 2003) ¿Qué podría constituir esta energía oscura?. se produce un fenómeno que denominamos microlente gravitatoria. 2. pasa por delante de una estrella distante (por ejemplo situada en las Nubes de Magallanes). Todos estos estudios indican que esta componente de energía oscura contribuye con unos 2/3 de la masa del universo. De la relación desplazamiento al rojo-distancia aplicada al brillo de supernovas tipo Ia. El efecto de interposición de un MACHO produce una concentración de la luz de la estrella distante que se manificesta como un aumento de brillo. Se están explorando actualmente dos posibilidades: 1. enana blanca. Del estudio estadístico de lentes gravitatorias.1. De las anisotropías de la radiación de fondo cósmico (ver noticia del 10 de Mayo de 2000) 3. Quintaesencia Detección directa de materia oscura 1. G la constante de gravitación universal y 91 . Teóricamente. Constante Cosmológica. Este anillo de denomina de Einstein El radio del anillo de Einstein RE depende de la masa M del objeto y de las distancias L a la estrella y l al MACHO (ver figura) RE = 2/c Raiz [G M L x (1-x)] Donde c es la velocidad de la luz. si el MACHO y la estrella están prácticamente alineados en la línea de visión desde la Tierra se forma un anillo luminoso alrededor del objeto formado por todos los rayos de luz que convergen en el observador. etc. enana marrón. similar a las lentes gravitatorias producidas por la interposición de una galaxia ó un cúmulo de galaxias en nuestra línea de visión a un cuásar. implicando un universo muy cercano o justo con la densidad crítica. 2.

2) Que el el fenómeno se produce a consecuencia de un objeto perteneciente a la propia Gran Nube de Magallanes. El tiempo que dura el evento está relacionado con la masa del MACHO implicado. Cuando miramos a estrellas de la Nube de Magallanes hay dos hipótesis que parecen razonables: 1) Que el fenómeno se produce debido a un objeto del Halo galáctico. Existen varios proyectos de observación que buscan eventos de este tipo. Las conclusiones básicas que se pueden extraer de las observaciones de estos tres proyectos son: 92 . unas 3 semanas si se trata de un enana marrón y de 5 a 8 semanas si se tratara de una enana blanca.5 magnitudes para estrellas de la Gran Nube de Magallanes. Para estrellas de la Gran Nube de Magallanes es del orden de media hora si el MACHO interpuesto se trata de un cuerpo de masa planetaria. La curva de arriba es para un parámetro de impacto r igual la mitad del radio del anillo de Einstein y la de abajo para un parámetro de impacto igual al radio del anillo de Einstein.x = [distancia la Macho] / [distancia a la estrella] = l / L El factor de amplificación A viene dado por A = ( u2 + 2 ) / (u (u2+4)½) con u = [parámetro de impacto] / [radio del anillo de Einstein] = r / RE y es típicamente del orden de 1 a 1. Curvas de luz teóricas para un fenómeno de microlente de una estrella perteneciente a la Gran Nube de Magallanes producida por un MACHO con una masa 100 veces menor que la del Sol y una velocidad transversal vr de 200 km/s. y el proyecto OGLE. El problema sólo queda definido cuando hacemos alguna hipótesis de la posible posición de los objetos. -Dm representa la variación de magnitud de la estrella durante el evento. el proyecto EROS. porque en principio existen infinitas configuraciones de objetos que podrían llevar a la misma curva de luz. entre ellos el proyecto MACHO. Es importante señalar que el problema de conocer los parámetros que intervienen en el fenómeno de microlente gravitatoria es un problema mal definido.

1. Parece de nuevo inevitable la existencia de materia no bariónica en nuestra galaxia. Uno de los eventos detectados por el proyecto MACHO. WINPS podrían haber sido producidas en el universo temprano en reacciones del tipo positrón + electrón ® WIMP + anti WIMP 93 . La independencia de las curvas con el color demuestran que la interpretación de microlente gravitatoria de las curvas de luz es perfectamente factible. Las teorías de gran unificación predicen la existencia de gran número de partículas exóticas que interaccionan con el resto de la materia sólo a través de la interacción débil y de la gravedad con masas del orden de algunos GeV hasta algunos cientos de GeV. 2. Varios eventos correspondientes a microlentes gravitatorias han sido observados. 2. pero su existencia está bien motivada por dos razones básicas 1. El número de eventos observados implica que el halo galáctico no puede estar formado enteramente de MACHOs de masa subestelar. Fuente: The MACHO project. 3. Las curvas de luz con filtro azul (blue) y con filtro rojo (red). Detectando WINPS (Partículas masivas de interacción débil) Nadie ha detectado todavía una WIMP. Las observaciones de la estructura del universo a gran escala y de las propias galaxias como la nuestra parecen implicar la existencia de materia no bariónica de manera inevitable 2.

Es exactamente el mismo problema que para la detección de neutrinos y así uno necesita construir detectores con gran cantidad de material. 94 . del orden de un millón por cm2 de superficie del detector y por segundo para WIMPs de 1 GeV. las agencias espaciales se preparan para regresar a la Luna y construir asentamientos permanentes en su superficie que permitan al ser humano dar otro “salto de gigante” hacia el planeta rojo. se creen abundantes en la Luna. la Era Espacial se reinventa y toma nuevos rumbos. numerosas naciones y corporaciones ven en las nuevas fronteras una oportunidad de negocio y expansión. cuando se entrena a astronautas para que soporten un viaje a Marte y en un momento en el que el turismo cósmico comienza a despegar. Surge así un nuevo circuito hacia el que propagarse.e+ + e. cobalto y uranio parecen encontrarse en vastas regiones de Marte. Elementos como el helio-3.® X + X+ Por supuesto que también se aniquilarían vía la reacción inversa X + X+ ® e+ + e- El número de WIMPs que podrían atravesar un detector es bastante grande. disminuyendo la cantidad proporcionalmente a la masa de la partícula. Más allá de darse por finiquitada. especulando con el tiempo y el espacio. sostienen. La dificultad principal reside en que estas partículas. hace tan sólo medio siglo. en caso de existir. soviéticos y estadounidenses. Una nueva era espacial En el siglo XXI. cuando un enjambre de miles de satélites artificiales puebla la órbita terrestre. interaccionarían muy débilmente con la materia produciéndose pocos eventos de baja energía (unos pocos keV). mientras que magnesio. Minar los cielos. ambicionado para investigar fusiones nucleares. Tal y como ocurrió cuando Cristóbal Colón descubrió el Nuevo Mundo. es el único modo de hacer rentable la exploración espacial. la carrera espacial parece no haber terminado. Por un lado. con nuevos campos de batalla en el espacio exterior de naturaleza distinta a la competición en la que se enzarzaron.

pudiendo 95 . De momento. no puede hablar siquiera de una base humana en la Luna. “En 2020 seremos capaces de aterrizar en la Luna con una tripulación de cuatro astronautas y de realizar allí misiones permanentes de seis meses”. la prometedora nave podría entrar en servicio en 2018. con la Estación Espacial Internacional a punto de completarse. Por su parte. habría que sumar como mínimo cinco años más para volver al satélite”. Si creemos que es suficiente. se desarrollará otra cápsula gemela que orbite alrededor de la Luna con cuatro cosmonautas a bordo. todos calientan motores. Tras las diez exitosas misiones del programa Apolo. Alan Rhodes. podrían cumplirse los pronósticos de regresar a la Luna en 2020. La NASA prejubila su buque insignia. Con capacidad para seis cosmonautas. Los responsables de la agencia añaden que “esta transición es una oportunidad para reinventar y revitalizar nuestros vuelos tripulados”. El pionero Borís Chertok. por ejemplo. Sin nosotros. Sin embargo. el famoso transbordador Shuttle y. La generación que creció creyendo que a estas alturas las misiones a Marte serían mera rutina. el ser humano no ha vuelto a la Luna. Uniendo nuestras fuerzas con los americanos. ni estadounidenses ni rusos intentaron regresar al satélite con naves tripuladas. A partir de su nuevo diseño. construye una nueva flota de vehículos y cápsulas espaciales que llevarán a sus astronautas de nuevo a la Luna bajo el programa Constellation. el siglo XXI acoge un renovado interés por retomar los vuelos espaciales y construir un asentamiento permanente a 384. aseguraba hace poco el director adjunto del proyecto. considera que “la cooperación resulta fundamental.De vuelta a la Luna “Sólo hemos explorado la Luna 27 días. Michael Griffin.000 kilómetros de la Tierra. los rusos trabajan también en una nueva nave espacial que sustituirá a la mítica cápsula Soyuz tras 40 años en servicio de reconocida efectividad. El regreso a la Luna y la expectación planetaria que suscita han llevado a los expertos a pedir colaboración entre los países para que no se repita una carrera espacial a la vieja usanza. ex-director de la NASA Desde que los astronautas Gene Cernan y Harrison Schmitt despegaron de la superficie selenita en 1972. las futuras generaciones pensarán que somos estúpidos”. uno de los ingenieros responsables del programa cósmico ruso.

los chinos presentan credenciales de peso para adelantarse incluso a los planes de estadounidenses y rusos. Gracias a su sonda Kayuga. La Agencia de Exploración Aeroespacial de Japón (JAXA) ha hecho revivir la época del Apolo con imágenes en alta resolución de la Luna y la Tierra a lo lejos. los gigantes asiáticos parecen haber tomado la delantera con el ímpetu de los primerizos.permanecer 200 días en el Espacio adosada a una eventual estación espacial. tiene planes espaciales bastante ambiciosos. La meta a medio plazo de todas las agencias es asentarse en la Luna con bases permanentes para luego abordar la exploración de Marte. Rusia sigue luchando en primera línea por el Cosmos. China. El gobierno de Pekín no oculta que sus objetivos son 96 . Y en esta carrera hacia el satélite. los japoneses estudiaron además las diferencias entre las dos caras de la Luna para intentar comprender cómo se formó y cómo ha evolucionado hasta su estado actual. unos pasos por delante. suspendida en la negrura del Universo. Tras haber lanzado su primer taikonauta en 2003. poner en órbita lunar la sonda Chang’e (diosa china de la Luna) y haber efectuado ya un paseo espacial. En contra de lo que se podía prever.

A los posibles beneficios de su futura explotación geológica. entre otras cosas. Poco después del amanecer de la Era Espacial. Sólo el proyecto de la NASA va a repartir un pastel de 100. Sin embargo.000 millones de dólares. se suman los que van a obtener las empresas que construyen las naves y las bases que se piensan instalar en el satélite. el siguiente “paso lógico” para la exploración humana del Sistema Solar. Las sondas espaciales estadounidenses Mariner y Viking. sobre el que las grandes corporaciones ya se han abalanzado. el asentamiento en la Luna proporcionaría una base conveniente para las naves que se dirijan en el futuro hacia Marte. ha despertado la imaginación del ser humano como ningún otro planeta. Además. Estados Unidos y la Unión Soviética pusieron en marcha sondas robóticas para explorarlo. La ambición roja Marte. nuestro vecino celeste.variados: analizar la existencia de recursos minerales. este recuperado interés por la Luna no es gratuito. que tuvieron más éxito 97 . un elemento inocuo que podría ser el combustible ideal para las centrales nucleares del futuro. El hombre se instalaría en el satélite. un isótopo del helio casi inexistente en la Tierra. para extraer helio-3. elevar el prestigio internacional del país y explotar las posibilidades militares del programa.

feroces tormentas de polvo. cráteres de impacto. y por ello se hace necesario profundizar en la historia geológica y climática del planeta para saber cómo. A pesar de que Rusia orientó su exploración desde un principio hacia Venus. Su tierra baldía tiene huellas que evocan un planeta asolado por volcanes y meteoritos. La gran incógnita sigue siendo la de si existe agua líquida en Marte. Ambas instituciones están colaborando en una serie de misiones simuladas a Marte con las que poner a prueba la resistencia. revelaron un planeta con colosales volcanes inactivos. con escala en la Luna. incluidos el lanzamiento. Marte tiene casquetes polares y nubes en su atmósfera. Durante las tres últimas décadas. tanto física como psicológica. tras un recorrido por la superficie. no ha renunciado del todo a la aventura marciana. extensas llanuras.planeta que observamos hoy. patrones climáticos estacionales y otros rasgos reconocibles. 98 . frío y estéril continúa arrojando nuevas hipótesis sobre su pasado y su presente. este cuerpo rocoso. Los viajes espaciales al planeta rojo descubrieron un mundo extrañamente familiar: al igual que la Tierra. tiempo estimado de un viaje de ida y vuelta al planeta en los que experimentarán todas las vivencias de una misión real. profundos cañones y valles. una fina atmósfera de dióxido de carbono y bajísimas temperaturas. una atmósfera volátil y gigantescas inundaciones. Prueba de ello es su alianza estratégica con la Agencia Espacial Europea (ESA) para enviar una misión tripulada a Marte en 2030. el viaje al espacio exterior. la llegada a Marte y. del ser humano durante prolongados períodos de aislamiento. el largo viaje de regreso a casa.que sus malogradas homólogas soviéticas. cuándo y por qué Marte sufrió los cambios tan drásticos que le llevaron a convertirse en el amenazador -pero aún prometedor. El experimento final recluirá a una tripulación de seis personas durante 520 días.

“Todo los que se puede decir con certeza es lo siguiente: el viaje se puede hacer y se hará algún día”. 99 . Previó que el asalto humano a la ambición roja debía hacerse con una decena de naves y con al menos 70 astronautas. Wernher von Braun. defendió durante toda su carrera la idea de un viaje tripulado a Marte a gran escala. Von Braun llegó a la conclusión de que nadie sería capaz saber lo que los seres humanos encontrarían al aterrizar en Marte.El audaz ingeniero alemán de la NASA.

Se define comunicación como el proceso por el que se transporta transmitida mediante señales. una enviaba la imagen mientras la otra la recibía y la reproducía.recibir imágenes y textos de todo tipo. y presenta la ventaja de no ser crackeable. Definición Se denomina fax. El teleprocesamiento permite que un sistema de computación utilice algún tipo de telecomunicación para procesar datos. al otro lado. La primera máquina comercial apareció en 1863. añadiendo multitud de novedades tecnológicas en el transcurso del siglo XX. ya que se usa par enviar . Las telecomunicaciones hacen referencia a la transmisión de datos a distancia. Historia La historia del fax inicia poco después de la invención del telégrafo. cuando en la exposición Universal de Londres (1851) se mostró un sistema capaz de enviar y recibir imágenes de una máquina a otra. impulsos que son traducidos en puntos -formando imágenes. el 100 . a un sistema que permite transmitir a distancia por la línea telefónica escritos o gráficos (telecopia).El Fax La utilización del FAX. que viajan por un medio físico. información. en algunos países como España. El escáner convierte el documento original en una imagen digital. el módem envía la imagen por la línea telefónica. la cual es La transmisión de datos es el movimiento de información codificada de un lugar a otro de señales que portan dichos datos por medio de sistemas de comunicación eléctrica. y a comienzos del siglo XX se empezó a utilizar en los periódicos para enviar y recibir imágializar los faxes de forma masiva. al fax se le concede valor legal. Partes de un fax Un fax es esencialmente un escaner de imágenes. Método y aparato de transmisión y recepción de documentos mediante la red telefónica conmutada que se basa en la conversión a impulsos de las imágenes «leídas» por el emisor. como una herramienta en la comunicación es de gran importancia. Además es de un costo muy bajo y confiable. por abreviación de facsímil. por lo que es usado en la formalización y cancelación de contratos. un módem y una impresora combinados en un aparato especializado.en el receptor.

que requieren un papel específico. que hace una copia del documento original. programas para los PC (MS-DOS. La recepción de fax siempre requiere de un programa que se ejecute en segundo plano "escuchando" el módem en espera de una llamada entrante. Entre ellos destacan el Ericsson portable y el Canon Navigator. Los primeros faxes sólo escaneaban en blanco y negro. Contra la creencia popular. En sistemas operativos multitarea como Windows. a poder controlarse cualquiera de sus partes). En el otro extremo se sitúan los ordenadores que. ahora son más modernos y sofisticados. Apple Macintosh. Commodore Amiga y las estaciones de trabajo de Sun y SGI realizaban esa misma función. Atari ST. Ya los Amstrad PCW y los MSX eran capaces de actuar de esa forma en su tiempo.módem lo recibe y lo envía a la impresora. MS Windows y los diferentes sabores de Unix). pueden enviarse a un ordenador o almacenarse en color en un disco duro local. mediante software y sus periféricos estándar. no es algo privativo de los PC o del sistema operativo MS Windows. el abaratamiento de la impresión por chorro de tinta provocó un boom de faxes de papel normal. La llegada y. OS/2. que en la mitad de los casos actuaban además como equipos multifunción (desde actuar sólo como impresora o fax/módem del ordenador conectado. Los primeros faxes utilizaban impresoras térmicas. el programa de recepción de transmisión de fax se hace emulando una impresora a la que se puede imprimir desde cualquier aplicación. Algunas ventajas de usar este sistema son: 101 . pero al mejorar la tecnología se pasó a la escala de grises. y aún menos las que usaban una impresora láser. y en el momento de popularización del módem/fax (un tipo de módem que además de los protocolos de comunicación incorpora el Grupo 2 o superior de fax). del Grupo 2 al Grupo 4 inclusive. sobre todo. La llegada de los equipos multifunción incorporó el escáner en color: aunque las imágenes se siguen enviando en grises. Eran muy pocas las máquinas que usaban una impresora de agujas. Software emulador de fax Un ordenador con fax/módem y el software adecuado es capaz de emular el funcionamiento de una máquina de fax. Unos pocos ordenadores incorporaron en su propia carcasa todo lo necesario para actuar además como máquinas fax. son capaces de emular un fax.

2.4.3. pero la duda era cuál sería la eficiencia del envío y el problema de enviar entre América y Europa. Desde entonces se han creado 4 normas o grupos : 1. Las resoluciones horizontal y vertical son las del estándar T. Tardan entre 6 y 15 segundos en transmitir una sola página (sin incluir el tiempo inicial de sincronizado e identificación de las máquinas).400 bps.2.30 y T. mejor conocida como grupo 1 de fax. Estos faxes tardan de cuatro a seis minutos en transmitir una página única. Estos faxes tardan 3 minutos en transmitir una página única. Ahorro de papel: los documentos recibidos solo se imprimen si es necesario.4.600 bps. se basa en la Recomendación UIT-T T. creado en 1980. Para corregir esta deficiencia el Sector de Normalización de las Telecomunicaciones de la UIT (Unión Internacional de Telecomunicaciones. con una resolución vertical de 100 líneas por pulgada a una velocidad de 9. se basa en las Recomendaciones UIT-T T.• • • Los documentos enviados y/o recibidos pueden almacenarse en el disco duro. creado en 1974.30 y T. y el tiempo que tardaría en llegar a su destino.400 bps. a una velocidad de 2. con una resolución vertical de 98 líneas por pulgada. Los documentos pueden exportarse a formatos gráficos standar y enviarse por correo electrónico. con varias combinaciones posibles: • o o Horizontal: 100 líneas por pulgada  Vertical: 100 líneas por pulgada Horizontal: 200 o 204 líneas por pulgada 102 . ITU en sus siglas en inglés) estableció en 1974 una norma mundial. Este tipo de faxes es ya obsoleto y no se fabrican más. a una velocidad de 14. Aunque ya obsoleto y no fabricado más. se basa en las Recomendaciones UIT-T T. Algunos programas emuladores de fax: • • • • • Cheyenne Bitware (DOS y Windows) Mighty Fax (Windows) Winfax (Windows) Hylafax (GNU/Linux y otros Unix) [BGFAX] (DOS y Windows) Grupos de fax El fax se convirtió en una parte esencial de la micro o hiper empresa. creado en 1976. se siguen empleando estos faxes al ser capaces de comunicarse con los faxes Grupo 3. Los documentos salientes se imprimen directamente desde un editor de texto. 3.

T.62. que recoge todas las de la T.4 ampliándolas. Es ampliamente usado en sanidad (con legiones de expedientes aún en papel). pero su eficiencia y el afán de modernización hicieron que se integrase posteriormente a los negocios. T. creado en 1984. el fax se usaba exclusivamente en el periodismo. T. suele ser una máquina conectada a la red telefónica correspondiente (analógica o RDSI) la que se encargue de transmitir el último tramo. Japón fue el mayor usuario de esta tecnología. aunque la comunicación debe pasar por un puente entre la red analógica y la digital. Para obviar los costes en las comunicaciones a larga distancia. Es capaz de recibir faxes provenientes de un fax grupo 3 o 2. si el fichero de este puede enviarse como adjunto?).o Vertical: 100 o 98 líneas por pulgada (Standard) Vertical: 200 o 196 líneas por pulgada (Fine) Vertical: 400 o 391 (no 392) líneas por pulgada (Superfine) Horizontal: 300 líneas por pulgada  Vertical: 300 líneas por pulgada  Horizontal: 400 o 408 líneas por pulgada  Vertical: 400 o 391 líneas por pulgada    4.521. El fax se utiliza para enviar y recibir imágenes de todo tipo.6. pero muchos equipos actuales son capaces de recibir y visualizar faxes por sí mismos.411 a T. Su resolución depende de la recomendación T. finanzas y las compañías de seguros (propuestas.563. en inglés abreviada como ISDN). se basa en las Recomendaciones UIT-T T. El operador puede requerir un contrato especial para activar estas posibilidades en su red. son muchas las compañías que todavía mantienen servicios de fax. 103 . T. El fax ha logrado ampliarse a todas las tecnologías de comunicaciones actuales. implantando tecnologías de punta a este aparato. Los teléfonos móviles GSM son también capaces de enviar y recibir faxes. está muy lejos de formar parte de la denominada "oficina sin papeles".417. Inicialmente requerían de una tarjeta PCMCIA o de un puerto IrDA para comunicarse con el ordenador. A pesar del éxito del fax.70. Ha sido diseñado para operar a más de 64 kbit/s sobre redes digitales RDSI (Red Digital de Servicios Integrados. y tempranamente se anexó a un teléfono regular.503. pero muchos culpan al fax de que la tecnología digital no haya avanzado demasiado como para empezar a adoptarla. Utilidad Inicialmente.72. se emplea también internet para transmitir los datos. Si el receptor no dispone de conexión a internet. T.6. Se le han integrado luego tecnologías nuevas como un disco duro y un reproductor de semitonos. T. T. Aunque en la actualidad el uso del fax disminuye en favor de internet y el correo electrónico (¿para qué imprimir y enviar por fax un documento. e incluso de enviar un documento existente como fax.

El termino TELEMATICA o TELEINFORMATICA conjunción de telecomunicaciones e informática se refiere a la disciplina que trata la comunicación entre equipos de computación distantes. notas a mano de inspectores y peritos. y la digitalización de todos los documentos. La TRANSMISION DE DATOS es el movimiento de información codificada de un lugar a otro de señales que portan dichos datos por medio de sistemas de comunicación eléctrica.) entre otras. Ambos están vinculados por un CANAL de transmisión por donde viaja la información. también ha hecho evolucionar el sistema de fax.partes amistosos de accidentes.. tercero porque son móviles al poder gestionar el servicio de fax desde cualquier lugar donde tengas acceso a tu correo electrónico incluido tu teléfono móvil y por cuarto porque son económicas ya que reducen los costes del servicio de fax en un 90% al incluir todo en un pequeño coste mensual. El fax virtual o fax por Internet se basa en el mismo sistema de transmisión de datos que el fax tradicional. y presenta la ventaja de no ser crackeable. Distinguimos en un extremo el terminal EMISOR y en el otro extremo el RECEPTOR. la cual es transmitida mediante señales. desde configurarse como una fuente de intercambio de conocimiento. Primero porque son ecológicas al reducir considerablemente el consumo de papel o tinta y la necesidad de una máquina específica. segundo porque son eficientes al permitir la gestión de archivos electrónicos.. por lo que es usado en la formalización y cancelación de contratos. Al fax se le concede valor legal. Internet. facturas. lo que supone una menor distorsión en el envío y recepción. mediante una línea telefónica. Evolución El sistema de envío y recepción de fax también ha ido adaptándose a la evolución y desarrollo de las nuevas tecnologías de la comunicación. hasta convertirse en un importante canal de venta. pero sustituyendo los aparatos tradicionales de fax por plataformas Web o de correo electrónico. 104 . que viajan por un medio físico. que ha supuesto una revolución en diferentes ámbitos. ideas e información. sin lograr sustituirlo por otros medios de comunicación. la cuota del número y el servicio de fax. Este tipo de soluciones de fax virtual tienen enormes ventajas con respecto a los sistemas tradicionales. En España. Telemática: Definimos comunicación como el proceso por el que se transporta información. 'Correos' ofrece servicios de fax y además el servicio burofax.

Respecto del computador al cual esta conectado. este ultimo también puede transmitir y el primero recibir. Un módem puede contener en su interior dos circuitos generadores de dos frecuencias (tonos) distintas. corrección de errores y de compresión. para recibir. Sistema Teleinformático: Esta constituido por: Equipos informáticos (computadoras y terminales). Esto es. para recibir o transmitir información. o sea que origina la comunicación se designa "originate" o "local". debe ajustar su velocidad de transmisión de datos. tipo de modulación. dado que un módem no debe esperar al otro a que termine. discar. mientras el primero transmite y el segundo recibe. recibe e interpreta comandos de este (discar. En relación con la línea telefónica. como sucede en "half dúplex". El módem puede estar en el gabinete de una PC (interno).Las TELECOMUNICACIONES hacen referencia a la transmisión de datos a distancia. Ambos modems deben operar con el mismo estándar de comunicación.) Cuando un módem transmite. para poder transmitir. El TELEPROCESAMIENTO permite que un sistema de computación utilice algún tipo de telecomunicación para procesar datos. en correspondencia con los que necesite enviar por vía telefónica. es el "answer" o "remoto". colgar. para enviar ceros y unos. atender llamadas que le hace otro módem. y el módem que contesta. también se encarga de esperar el tono. • RED DE TELECOMUNICACIONES: Soporte para la comunicación. con medios de transmisión y circuitos apropiados. Dos modems pueden intercambiar información en forma "full dúplex". • Comunicación entre una computadora y otra: La comunicación se logra mediante la utilización de las redes telefónicas y modems. Así se gana tiempo. Su función es permitir conectar un computador a una línea telefónica. el módem además de recibir/transmitir información. procesar. Cuando un módem transmite tonos se dice que modula o convierte la señal digital binaria proveniente de un computador en dichos tonos que representan o portan bits. responde. 105 . o ser externo al mismo. etc. El módem que llama. etc. visualizar y enviar datos. colgar.

S1. o sea en detectar los ceros y unos que cada tono representa. la cual cambia de frecuencia según se envíen ceros o unos. y el módem. Conforme a la Electronic Industries Association (EIA) en cada extremo de la línea.. otro módem en su lugar también detecta cual de las dos frecuencias esta generando el otro módem. designados S0.. se llama demodulacion. apropiada para ser enviada por una línea telefónica. solo permite transmitir hasta 600 bits por segundo. el computador se designa "equipo terminal de datos" (DTE). Estos guardan distintos parámetros que el usuario puede cambiar mediante comandos. Registros de los modems: Un módem presenta un centenar de registros no volátiles. y las convierte en los niveles de tensión correspondiente al 0 y al 1.. Esta acción del módem de convertir tonos en señales digitales. pueden considerarse como pertenecientes a una única onda que por la línea telefónica viaja de un módem a otro. por otro lado. Para que dos modems puedan comunicarse. de esta ultima recibe información analógica para que la convierta en digital.Del mismo modo que el oído de la persona que en el extremo de la línea puede reconocer la diferencia de frecuencia entre los tonos del 0 y 1. Denominación de Modem: La palabra módem deriva de su operación como MOdulador o DEModulador.24 internacional) 106 . entre otras cosas deben usar la misma técnica de modulación. referidos a la fijación de tiempos de respuesta y operación del módem. equipo para comunicaciones de datos" (DCE). con una frecuencia para el uno y otra para el cero. denominada PORTADORA (carrier). para ser enviada al computador. Los modems tienen registros para almacenamiento temporario de datos en curso. De esta manera. Interfaz RS-232C: A fin de que equipos de computación y modems de distintos fabricantes puedan interconectarse de manera universal. Frecuencia "portadora" en la comunicación entre modems: Los tonos de la figura de arriba. por "portar" los unos y los ceros que se transmiten. la norma americana rs-232c (ccitt v. Un módem por un lado recibe información digital de un computador y la convierte en analógica.. un módem conectado esta incivilizado de forma deseada. S2.S99. El tipo de modulación ejemplificada.

Existe un conductor para " tierra" de las señales. al igual que cuando se almacenan en una memoria principal. Un módem comprende hardware para conectarlo a un port serie de PC. pudiendo mediar un tiempo cualquiera t entre un byte y el siguiente. Para poder distinguir un bit del siguiente cada bit debe durar igual tiempo T. los 8 bits se envían en orden inverso a indicado.especifica características mecánicas. Aparecen los bit de control "start" (siempre 0) que indica comienzo de carácter. siendo en general el empleado por su sencillez para bajas velocidades de transmisión de datos. un conjunto de procedimientos a cumplir. Supongamos que se envía X dato de 8 bits. Para tal fin sirve el bit de start. Los restantes cables con señales digitales sirven para funciones de control del módem. 2: El módem remoto lleva a cabo una acción equivalente a levantar el tubo y emite un tono o serie de tonos particulares que indican que ha respondió el llamado. constituye un protocolo. y luego disca el numero telefónico del módem remoto. En total son pues 10 bits (rendimiento del 80%). y "stop"(siempre 1) de final de byte enviado. funcionales y eléctricas que debe cumplir la interconexión entre un computador y un módem. En general. para llevar a cabo las etapas de una comunicación. Un módem debe ajustarse a dos protocolos: • • El protocolo rs232c Protocolo estándar. En la transmisión asincrónica los datos se envían como bytes independientes. como los serie V de la ccitt. 3: El módem local responde a la serie de tonos. Protocolo de comunicaciones: En la comunicación modem-modem se debe cumplir otra secuencia de acciones y señales: 1: El módem local realiza una acción semejante a levantar el tubo. y el otro cuando el sentido de los datos es contrario (recepción). Transmisión asincrónica de datos o protocolo "star-stop" : Los datos que maneja un módem están organizados en bytes separables. y negocia con el módem remoto la mayor velocidad de transmisión posible. Uno de estos conductores se usa para transmitir de la PC al módem. 107 . y que se puede comunicar a una velocidad (bps) y modulación (ambas normalizadas). que permite sensar en momentos adecuados (en sincronismo) el valor de los bits siguientes hasta el "stop". siendo que en la PC se usan 9 para la comunicación Pc-modem. Es el modo de transmisión corriente vía módem usado en las PC. separados. Si es externo se conecta a través del conocido conector de forma trapezoidal. Este conector posee 25 conductores.

el código recibido será el de la letra C. Zmodem y otros. se indica 8N1. El computador que recibe debe verificar que cada carácter que le llega tenga la paridad convenida. de modo que se cumpla dicha paridad. pero por un ruido en la línea telefónica mientras el módem transmitía. se puede convenir que cada una representa dos bits 108 . Esto hace a la diferencia que existe entre baudios y bits por segundo. se indica 7E1. que es la mayor probabilidad de errores en transmisión telefónica. se vuelve a transmitir el bloque. que es la forma usual de comunicación entre dos PC. ni bits de start y stop (aunque existen bytes de comienzo y final). y no hay forma de detectar un carácter mal recibido. Para el control del envío de archivos de programas existen los protocolos de archivo en los programas Xmodem. La figura 1 ilustra una onda senoidal cuya amplitud puede saltar de valor entre cuatro niveles distintos. En el receptor sobre cada bloque recibido se realiza al mismo calculo. Puesto que se puede cambiar entre cuatro amplitudes diferentes. Así es factible enviar mas bytes por segundo. pues este método supone solo un bit errado. Caso contrario pedirá su retransmisión pues implica que un bit llego errado La paridad sirve para detectar si uno de los bits recibidos cambio de valor. Bit de paridad: Supongamos que la PC que transmite envía A=01000001. Si como en el ejemplo dado. Si se obtiene el mismo número agregado se envía un simple OK. es un baudio. se puede usar el bit restante para detectar si se ha producido un solo error por inversión como el ejemplificado. En cada segundo pueden ocurrir 2400 de estos cambios de amplitud. Estos programas dividen al archivo a enviar en bloques de igual tamaño. Cada uno de estos saltos de amplitud en dicho segundo. Dado que ASCII básicamente se codifica en 7 bits. De no recibirlo. son 7 bits. Velocidad de un modem y baudios: Hay que diferenciar entre velocidad de señalización y velocidad de transmisión de información. Entre dos computadores que se comunican.En la transmisión sincrónica se envía un paquete de bytes sin separación entre ellos. esta onda presenta una velocidad de señalización de 2400 baudios. se adopta la convención de que en cada carácter emitido o recibido debe haber un número par de unos. con paridad par ("even parity") y un bit de stop. El computador que esta enviando. Si los bits errados son dos. la paridad par seguirá. con un bit de stop. sin que se pueda notar el error. se recibe 01000010. da valor al bit restante citado. que se envían (byte a byte con paridad nula) con el agregado de un numero que es el resultado de un calculo polinomial sobre los bits de cada bloque. Cuando se usa 8 bits sin paridad ("null parity").

con lo cual se podía transmitir hasta 600x4= 2400 bps. por lo que esta técnica supone la transmisión en un ancho de banda variable según el estado de la línea. La primer técnica conocida como QAM (Quadrature Amplitude Modulation). Cada velocidad implica una frecuencia distinta de portadora. Para superar los 600 baudios. agregando un bit extra cada cuatro (norma V. 109 . Con la denominada "codificación entramada" o Trellis-TC. esta modulada en frecuencia (FSK= Frecuency-Shift-Keying= Codificación por cambio de frecuencia) En la figura se ejemplifico una onda portadora con modulación en amplitud. los cambios en la portadora pueden ser tanto de amplitud como de fase. siendo que en el presente este tipo de variación de la forma de una onda se usa en combinación con cambios en la fase de la misma.22 bis. existiendo una sola frecuencia para la transmisión como para la recepción. con lo cual para 2400 baudios se alcanzaron 2400x6= 14400 bps.TCQAM). e interpretar los dos bits que codifica. Resulta ser la más eficaz para transmitir datos binarios en líneas con ruido. Esta forma de cambiar la señal portadora para representar combinaciones binarias. Formas más usuales de modulación: Una onda que cambia entre dos frecuencias para codificar uno y cero. Mediante complejas técnicas se logro que la modulación se adaptara a cada instante al estado de la línea telefónica. y con 4 bits por cambio (baudio). se denomina modulación en fase (PSK=Phase-ShiftKeying=Codificacion por cambio de fase). se codifican 6 bits por baudio. y con 4 bits por baudio se llego a 2400x4= 9600 bps. codificando 12 bits por baudio. para portadora modulada a 600 baudios. y la mínima de 2400. Esto se logro. se concreto en las normas V. con lo cual se tiene una velocidad de transmisión de 2400x2= 4800 bits por segundo. Este tiempo es suficiente para que el módem pueda detectar un baud.determinados. siendo que requiere que el emisor y el receptor sean muy complejos. siendo la máxima de 3429 baudios.32 (QAM) elevo la frecuencia de la portadora. En un módem actual. Se agregaron otras técnicas que requieren efectos compensatorios del mismo tipo en el módem receptor. En pocos años. la velocidad de transmisión por las líneas telefónicas comunes fue aumentando 100 veces: de 300 a 33. Cada cambio de fase es como si la porción de onda que sigue a dicho cambio. que permite al módem receptor corregir errores a medida que recibe datos. se adelantara (o atrasara) con relación a lo que debiera ser una forma senoidal continua.600 bps. Se usan cinco velocidades de señalización.4 milisegundos. una portadora se pudo modular a 2400 baudios. pura. la norma V. La detección de cada amplitud (baud) puede hacerse cada 1/2400 de segundo= 0. Con este método.32.

significa que a las mejoras anteriores se agrega la compresión de datos.42 LAPM &MNP 2.8 bits por cambio. A mayores velocidades. entre caracteres media un tiempo muerto variable. buscando el mayor ancho de banda utilizable compatible con la taza de error permitida (1 bit errado por cada millón) Posteriormente. 110 . Si también cumple con la norma V.bis/MNP5. Esto supone modems igualmente inteligentes. Un módem rápido es mas caro. Un módem que incorpora estas técnicas (V.42. con lo cual la velocidad de transmisión se mejora notablemente (se recibe cuatro veces más rápido). teóricamente seria posible enviar 4800/10= 480 caracteres por segundo. Cuando el módem se comunica con otro. sondea unos 15 segundos la línea. por lo cual los modems empezaron a contener circuitos para detectar y corregir errores. puede negociar con el módem al que se conecto (si es inteligente). los bloques no son grandes. para 3429 baudios se lograron 9. Si la transmisión es asincrónica. con lo cual se alcanzo una velocidad de 33600 bps. en realidad se transmiten 480x8= 3840 bps de información. aumenta el numero de bits errados. Cuando el ruido aumenta. pero tarda menos tiempo en la transferencia de archivos (si el módem con el que se conecta es igualmente repudio e inteligente).4 bits por cambio de la señal se logra el máximo de 28800 bps. Se empezó a enviar y recibir los caracteres sin los bits de startstop. Luego se hizo que la longitud de estos bloques este en función del ruido presente en la línea telefónica. y con 8. a fin de que se pierda menos tiempo en esta tarea.3.Para 3429 baudios. se envían bloques con menos caracteres. Dado que de esos 10 bits son 8 de datos y 2 de para control start stop. si transmite un carácter en ASCII con 10 bits. de donde resulta una velocidad real menor que los 3840 bps antes calculados. formando bloques de caracteres (transmisión sincrónica).4). ahorrando tiempo y costo de servicio telefónico. En caso de retransmisión. con compresión de datos se pueden lograr velocidades de transmisión equivalentes a 28800x4= 115200 bps. enviando una sucesión de tonos. operando bajo una misma norma. el mejor método de corrección. Velocidades de transmisión virtuales mediante compresión de datos y otras técnicas: Un módem que transmite 4800 bps. Un módem que puede transmitir hasta 28800 bps.

Para que se le pueda emitir un comando desde el teclado. Aunque el usuario no ordene comandos. y modifican los contenidos binarios de los registros del módem. el programa de comunicaciones cuando es llamado inicializa los registros del módem con valores default. • Hacer que una PC emule una terminal de tecladoy pantalla tipo VT100. dedicado a la demodulacion de las complejas señales analógicas. de un módem antes citados. Típicamente puede realizar las siguientes funciones: Atender el teléfono y transferir archivos hacia otro computador Recibir archivos Llevar un directorio de números telefónicos y parámetros de otros computadores. ATS0=n. un módem debe estar en "modo comando".. que le ordena tomar la línea telefónica. etc. detectar tono. Una de las formas de llevar al módem al "modo comunicación". De esta forma se establece como operara un módem. ATL2.. es mediante el comando de discado ATD. El usuario tiene a su disposición en el modo comando un conjunto de órdenes para definir los contenidos de los registros S0. S1. 111 . • Manejar buffers para guardar la ultima información que se fue de pantalla (scrollback) • Ayudar sobre la operatoria en curso.. • • • Al ser inicializado un programa de este tipo. ANSI o TTY en comunicaciones con grandes computadoras (mainframes) • Permitir tipear comandos y que sean visibles en el monitor. en un módem podemos encontrar un microcontrolador. ATB1. discar y esperar la portadora del módem con el que se comunica. Los comandos se tipean precedidos por la sigla AT (ATtention). preguntara por la marca o tipo de módem conectado. Este hardware permite operar a grandes velocidades y que los modems sean multinorma. Hardware de los modems inteligentes actuales: Hoy en ida. ATV1.Software necesario para operar un modem: Se los denomina "programas de comunicaciones". que son datos fijos que contiene dicho programa. Encontramos entre otros: ATE1. encargado de procesar los comandos que envía el usuario y un microprocesador (el digital signal processor – DSP).

amen de un procesadory memoria. Debe también mencionarse que los citados 56Kbps son un limite que solo se alcanza en determinado estado optimo de las líneas. 4800. Los denominados modems de 56 Kbps pueden transmitir información analógica o digital. Para el resto de las aplicaciones que no sean Internet o BBS. y otro para obtener energía. barriéndola mediante sensores fotoeléctricos. para convertir la imagen en un conjunto de puntos de valor 0 (blancos) y 1 (negros). Funcionamiento de un fax corriente: Para entender la operatoria de un fax modem. requiere un cable para conectarse a la PC.Diferencias entre los modems internos y externos: Un módem interno esta contenido en una plaqueta similar a las que se enchufan en el interior del gabinete de una PC. Dada una hoja con texto. o 9600 baudios. y luego transmiten los datos a 2400. El módem externo esta contenido en una caja propia. Presenta luces indicadoras que dan cuenta de la operación que esta realizando. Estas no fueron pensadas para transmitir datos. tienen un ancho de banda comprendido entre 300 y 3300 baudios Hz. Los 3000 Hz citados. Así permiten recibir datos a 56 Kbps desde Internet. Modems de alta velocidad (digitales) actuales: Las líneas telefónicas para señales analógicas. La velocidad de 33600 bps de los módem actuales. primero debemos entender la de un fax común y corriente. un sistema de barrido de imagen. El módem se encarga de convertir las señales binarias digitales en analógicas. Es adaptable a distintas computadoras. Esta recibe dichas señales y genera una reproducciónde la hoja original usando su sistema de impresión. pero solo pueden enviar a 28800 bps. Típicamente las maquinas de fax para establecer una comunicación envían información de control a 300 baudios. constituye un techo dificil de superar. 112 . limitan la velocidad de transmisión. el módem funciona a 28800bps. un sistema de impresión y un módem. pero debe conectase a un port serie. el servicio de fax o facsímil permite obtener una copia de la misma en un lugar distante. Cada maquina de fax contiene un teléfono. Ocupa un zócalo disponible y no necesita usar un port serie. No ocupa ningún zócalo. Dos aparatos de fax comunicados telefónicamente son como dos fotocopiadoras tales que una de ellas lee la hoja a copiar. Dentro de esta clasede módem debemos incluir los PCMCIA para notebooks. que son transmitidos como señales eléctricas binarias hacia la otra fotocopiadora. a través de una línea telefónica establecida entre dos maquinas de fax.

Modem fax: Un módem fax supone la existencia de un computador con un módem. Algunas maquinas de fax permiten la transmisión diferida. Otra opción es el selector automático de voz/datos que identifica si un llamado es para fax o si se trata de una persona. El ancho de las barras y espacios puede ser variable. La operatoria para transmitir o recibir con un fax-modem es más compleja que apretar un simple botón como en la maquina de fax común. Las lectoras son las encargadas de convertirlos en unos y ceros que irán al computador. otro de final o stop code (d). y por ultimo otra zona vacía (e). Si se necesita enviar un texto o un dibujo que esta solo en papel. Después sigue un código de separación (c). en cuyo caso debe sonar la campanilla telefónica. En binario las barras significaran unos y los espacios ceros. puede tenerse en cada pulgada cuadrada. siendo que a un computador se conecta a través de la interfaz port serie. 113 .La resolución se refiere a la densidadde puntos usada para reproducir un fax. Puede ser interno o externo. facilidad y bajo costo. y el software de comunicaciones para recibir y enviar faxes. Códigos de barra: En general los códigos de barra no son descifrables por las personas. o sea que no han sido originados por un computador. para enviar automáticamente fax a partir de determinados horarios en que son mas baratas las tarifas telefónicas. así como software para manejar archivos de fax. Le sigue un código de comienzo o start code (b). Lectoras de códigos de barras El lector de códigos de barra esta ampliamente difundido en el comercio y en la industria. 98 líneas verticales y 203 horizontales. se necesita un escáner para convertir (digitalizar) dicho escrito o dibujo en un archivo que maneje el computador. En la figura. siendo la más ancha un múltiplo de la mas angosta. Representan caracteres de información mediante barras negras y blancas dispuestas verticalmente. Posibilita la recolección de datoscon rapidez. el margen (a) equivale a 9 módulos. según los estándares existentes. en comparación con la lectura visual de códigos numéricos seguida de entrada manual por teclado. Estas ultimas se duplican para una resolución fina. que indica que luego viene el código con los dígitos de información. muy baja tasa de errores.

y se resta 41 al múltiplo de 10 siguiente: 50-41= 9. Esto hace a la diferencia entre las dos clases de lectoras citadas. existe el código ISBN. usado en la cubierta de libros y revistas. como ser 200 caracteres en una pulgada cuadrada. que se deben escanear mediante un escáner o una cámara fotográfica digital. o bien debe existir un haz láserque se desplaza para explorar el código.Uno de los códigos de barras mas corrientes es el UPC (Universal Product Code). produciendo los espacios claros una mayor corriente electrica en el elemento fotosensor. Por lo tanto. El grupo 43607 representa al fabricante X. Sean los siguientes 12 dígitos 0 43607 47433 9. El código entrelazado 2 de 5 (ITF). Es un código muy compacto. separados entre 2 barras y 2 espacios. estos reflejaran mas luz que las barras. El código 39 codifica números y letras para usos generales. Los dígitos tienen distinto significado según su posición relativa. 114 . siendo que la barra más delgada corresponde a un modulo. Los datos se codifican mediante puntos. El primer dígito indica la categoría del producto y lo que los dígitos siguientes representaran. siendo muy popular. Permiten almacenar en un área muy pequeña mucha información. La corriente eléctrica que circula por el fotosensor es proporcional a la intensidad del haz reflejado (que es la magnitud censada). y luego de las posiciones pares sin considerar el 9 de verificación: 4+6+7+7+3= 27. y a un tipo de producto concreto. útil para espacios pequeños. El dígito extremo derecho sirve para verificación. Al presente existen unos 20 códigos de barra. Siendo las barras oscuras y los espacios claros. y 47433 al producto Y. debiendo ser este resultado igual al dígito extremo derecho. siendo que codifica dos dígitos por vez. La luz reflejada es detectada por un elemento fotosensor. también de 12 dígitos. Cada codificación representa 12 dígitos que permiten identificar un producto mediante barras negras y espacios de distintos grosores. pero con un numero par de dígitos. También existen códigos de barra en 2 dimensiones. Cada dígito se compone de 7 módulos. Para que la lectura progrese debe existir un movimiento relativo del código respecto a la lectora o a la inversa. puede ser de cualquier longitud. Primero se suman los dígitos de las posiciones impares: 0+3+0+4+4+3= 14. En ambos casos una fuente luminosa ilumina la superficie del código. deberá convertirse en digital (unos y ceros) para ser procesada. Lectoras de códigos de barra: Existen dos clases de lectoras: De haz fijo y de haz móvil. Este código se usa mucho en la industria y para inventarios. Emparentado con el UPC. que como el caso del escáner es una señal analógica. Si es un 0 implica que los dígitos siguientes codificaran al fabricante. Después se suman 14+27= 41. Este es uno de los pocos códigos en que los espacios en blanco tienen significado.

• Lectora fija con haz láser móvil: Un rayo láser rojo anaranjado barre en un sentido a otro el código de barras decenas de veces por segundo. Es de haz fijo. Estas lectoras son más exactas que las anteriores. 115 . Por la ventana de salida parece como si se generan muchos haces láser. facturas.. Esto permite leer un código de barras que este en distintas ubicaciones espaciales respecto a la ventana citada. si el fichero de este puede enviarse como adjunto?). son muchas las compañías que todavía mantienen servicios de fax.Diferentes tipos de lectoras: • Lectora manual: Tienen forma de una lapicera. Presenta una de las ventajas mas importantes no es crackeable. pero muchos culpan al fax de que la tecnología digital no haya avanzado demasiado como para empezar a adoptarla.) entre otras. • Lectora de ranura fija: El operador debe desplazar el código a través de una ranura de la lectora. se debe desplazar de toda la longitud del código. Conclusión: El fax ha logrado ampliarse a todas las tecnologías de comunicaciones actuales. Un rayo láser es dirigido por un espejo móvil. notas a mano de inspectores y peritos. está muy lejos de formar parte de la denominada "oficina sin papeles.. para que un haz fijo pueda ser reflejado y censado. A pesar del éxito del fax. partes amistosos de accidentes. que a su vez dirige el haz hacia otros espejos. finanzas y las compañías de seguros (propuestas. Es ampliamente usado en sanidad (con legiones de expedientes aún en papel). Aunque en la actualidad el uso del fax disminuye en favor de internet y el correo electrónico (¿para qué imprimir y enviar por fax un documento.

La abundancia de información en este tema. Las fibras ópticas no conducen señales eléctricas por lo tanto son ideales para incorporarse en cables sin ningún componente conductivo y pueden usarse en condiciones peligrosas de alta tensión. Aquí se explicará que es. Ella es la responsable de la difusión de servicios interactivos. para que sirve.000 pares de cable de cobre convencional para brindar servicio a ese mismo número de usuarios. amplia capacidad de transmisión y un alto grado de confiabilidad debido a que son inmunes a las interferencias electromagnéticas de radio-frecuencia. quizá interesantes de explicar. Fabricadas a alta temperatura con base en silicio. Se adjuntara un video acerca de la fabricación de las fibras. conversores. Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente compactos: El grosor de una fibra es similar a la de un cabello humano. lo que también eleva los costos. internet. De esta forma es considerable el ahorro en volumen en relación con los cables de cobre.Fibra Óptica I El objetivo de este trabajo es conocer mejor los aspectos de un medio de transmisión de datos que causo una revolución en las comunicaciones: la fibra óptica. entre sus principales características se puede mencionar que son compactas. con bajas pérdidas de señal. ligeras. Comparado con el sistema 116 . el cual es costoso y presenta dificultades. para permitir que el índice de refracción de su núcleo. pero harán muy largo y complicado de entender la clase. e incluso operaciones remotas. mientras que se requiere de 10. con la desventaja que este último medio ocupa un gran espacio en los ductos y requiere de grandes volúmenes de material. Con un cable de seis fibras se puede transportar la señal de más de cinco mil canales o líneas principales. entre otros temas. y en salud. su proceso de elaboración es controlado por medio de computadoras. transmisión por fibra óptica. nos ha obligado a sintetizar algunos temas. que es la guía de la onda luminosa. proceso de fabricación. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún circuito adicional de protección y no hay problemas debido a los cortos circuitos. ventajas y desventajas. Tienen un gran ancho de banda. que puede ser utilizado para incrementar la capacidad de transmisión con el fin de reducir el costo por canal. sea uniforme y evite las desviaciones.

Concepto de transmisión. automatización industrial. computación. por ello se le considera el componente activo de este proceso. receptor. de señal de entrada. Una vez que es transmitida la señal luminosa por las minúsculas fibras. En resumen. El sistema básico de transmisión se compone en este orden.convencional de cables de cobre donde la atenuación de sus señales (decremento o reducción de la onda o frecuencia) es de tal magnitud que requieren de repetidores cada dos kilómetros para regenerar la transmisión. con el tiempo se ha planteado para un amplio rango de aplicaciones además de la telefonía. generado por el transmisor de LED'S (diodos emisores de luz) y láser. amplificador y señal de salida. Originalmente. Sin que halla necesidad de recurrir a repetidores lo que también hace más económico y de fácil mantenimiento este material. similar a la señal original. la fibra óptica funciona como medio de transportación de la señal luminosa. la fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho de banda. empalme. línea de fibra óptica (segundo tramo). línea de fibra óptica (primer tramo). sistemas de televisión por cable y transmisión de información de imágenes astronómicas de alta resolución entre otros. corrector óptico. en el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. corrector óptico. cuya misión consiste en transformar la señal luminosa en energía electromagnética. sin embargo. En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa. se puede decir que este proceso de comunicación. amplificador. en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor. fuente de luz. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmis ión 117 .

118 . Sistemas de comunicación de fibra óptica. su luminosidad.mediante fibra óptica. Además su pequeño tamaño. La fibra óptica consiste de un núcleo de fibra de vidrio o plástico. La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección láser ILD. La conexión de esa fuente a la fibra es una interface mecánica cuya función es acoplar la fuente de luz al cable. debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. El conversor de voltaje a corriente sirve como interface eléctrica entre los circuitos de entrada y la fuente de luz. una fuente de luz y un adaptador de fuente de luz a fibra. una cubierta y una capa protectora. El dispositivo de acoplamiento del receptor también es un acoplador mecánico. En un transmisor de fibra óptica la fuente de luz se puede modular por una señal análoga o digital. Ambos convierten la energía de luz en corriente. por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de entrada en una corriente que se usa para dirigir la fuente de luz. un foto detector. se requiere un conversor corriente a voltaje que transforme los cambios en la corriente del detector a cambios de voltaje en la señal de salida. un conversor de voltaje a corriente. un conversor de corriente a voltaje un amplificador de voltaje y una interface analógica o digital. En consecuencia. El receptor incluye un dispositivo conector. La guía de fibra es un vidrio ultra puro o un cable plástico. longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas. Los bloques principales de un enlace de comunicaciones de fibra óptica son:  Transmisor  Receptor  Guía de fibra El transmisor consiste de una interface analógica o digital. Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales. la cantidad de luz emitida es proporcional a la corriente de excitación. El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de avalancha).

Capacidad de transmisión: La idea de que la velocidad de transmisión depende principalmente del medio utilizado. ya que ellas pueden transmitir a velocidades mucho más altas de lo que los emisores y transmisores actuales lo permiten. La seguridad en cuanto a instalación y mantenimiento. Inmunidad a transmisiones cruzadas entre cables. 1. 2. estarán disponibles de modo interactivo una amplia variedad de servicios de información para el consumidor. Además. del orden de miles de millones de bits por segundo. incluyendo la TV de alta definición. se conservo hasta el advenimiento de las fibras ópticas. Resistencia a extremos ambientales. puede transportar miles de conversaciones simultáneas de voz digitalizada. Inmunidad a interferencia estática debida a las fuentes de ruido. los impulsos luminosos no son afectados por interferencias causadas por la radiación aleatoria del ambiente. Ventajas de la fibra óptica. por lo tanto. Las fibras de vidrio y los 119 . Mayor capacidad debido al ancho de banda mayor disponible en frecuencias ópticas. y a diferencia de los pulsos electrónicos. causadas por inducción magnética.. 5.Forma Un filamento de vidrio sumamente delgado y flexible (de 2 a 125 micrones) capaz de conducir rayo ópticos (señales en base a la transmisión de luz). Cada una de las fibras ópticas. son estos dos elementos los que limitan la velocidad de transmisión. 3. Son menos afectadas por líquidos corrosivos. Se utilizan varias clases de vidrios y plásticos para su construcción. gases y variaciones de temperatura. Las fibras ópticas poseen capacidades de transmisión enormes.. Cuando las compañías telefónicas reemplacen finalmente los cables de cobre de sus estaciones centrales e instalaciones domiciliarias con fibras ópticas. 4. un recubrimiento (clading) que tienen propiedades ópticas diferentes de las del núcleo y la cubierta exterior (jacket) que absorbe los rayos ópticos y sirve para proteger al conductor del medio ambiente así como darle resistencia mecánica. Una fibra es un conductor óptico de forma cilíndrica que consta del núcleo (core).

Tiempos de respuesta mínimos en la reparación de daños. en muchos casos. especialmente en el campo.  Necesidad de usar transmisores y receptores más caros  Los empalmes entre fibras son difíciles de realizar. 4. Un excelente medio para sus comunicaciones. 6. 7. 2. Posibilidad de daño casi nula.plásticos no son conductores de electricidad. 5. lo que dificulta las reparaciones en caso de ruptura del cable  No puede transmitir electricidad para alimentar repetidores intermedios  La necesidad de efectuar. 3. pensando en esto empresas como la ETB crearon el proyecto de digitalización de la red de abonado en fibra óptica. Alta confiabilidad y privacidad en sus comunicaciones telefónicas. Transmisión de datos de Alta Velocidad 2. Supresión de ruidos en las transmisiones. En el último kilómetro es donde se presenta con mayor frecuencia problemas y daños en las comunicaciones de los clientes. siendo las más relevantes las siguientes:  La alta fragilidad de las fibras. Enlaces E1 (2Mb/s) para conexión de PABX La posibilidad en el futuro de conexión de nuevos servicios como multimedia o sistemas de televisión por cable. Gran ancho de banda También la fibra óptica es una plataforma para la prestación de otros servicios. tales como: 1.. 120 . Red redundante. procesos de conversión eléctricaóptica  La fibra óptica convencional no puede transmitir potencias elevadas. Desventajas A pesar de las ventajas antes enumeradas.1  No existen memorias ópticas Cables Ópticos. Mayor número y rapidez en la solicitud y entrega de nuevos servicios. como: 1. La fibra es el soporte ideal por todas las ventajas que brinda. 8. Conexión directa desde centrales hasta su empresa. la fibra óptica presenta una serie de desventajas frente a otros medios de transmisión.. se pueden usar cerca de líquidos y gases volátiles.

determina la fuerza mínima de ruptura de la fibra y la fuerza requerida para el miembro de tensión. suspendido en postes. 2. El propósito básico de la construcción del cable de fibra óptica es el mismo. identificación de fibras. vibración. facilidad de cortado. 3. Rango de temperatura y medio ambiente en donde el cable va a operar. Esfuerzo máximo permitido en la fibra durante su fabricación. enterrando directamente. facilidad de alineación del cable y la fibra. Las propiedades esenciales en el diseño del cable son la flexibilidad..Para poder utilizar fibras ópticas en forma practica. Evitar cargas o esfuerzos mecánicos sobre las fibras. Los parámetros para formar un cable especial son: 1. instalación y servicio. atenuación estable. instalación y operación.. Existen varios parámetros que caracterizan a una fibra óptica. Para ello se les proporciona una estructura protectora. límite de tensión. 4. paralela elección del tipo de materiales a utilizar tomando en cuenta su coeficiente de expansión térmica y su cambio de dimensiones en presencia de agua. sumergido en agua etc. 2. Para cumplir estos requerimientos se observan las siguientes recomendaciones: 1. facilidad de pelado. torsión. resistencia al fuego. Parámetros de una fibra óptica. Fuerza lateral dinámica y estática máxima ejercida sobre la fibra. para determinar la configuración del cable y el límite de tolerancia de micro curvaturas. formando así. Flexibilidad 4. Aislar la fibra de los demás componentes del cable. estas deben ser protegidas contra esfuerzos mecánicos. humedad y otros factores que afecten su desempeño. peso. etc. Escoger los materiales de los elementos del cable con mínimas diferencias en sus coeficientes de expansión térmica. 3. Dicha estructura de cables ópticos variará dependiendo de sí el cable será instalado en ductos subterráneos. lo que conocemos como cable óptico. Mantener las fibras cerca del eje central y proporcionar espacio a las fibras para su mantenimiento. Se habla de parámetros 121 . Mantener estables la transmisión y las propiedades de rigidez mecánica durante el proceso de manufactura.

. En cuanto a los parámetros de transmisión se tiene:  Atenuación. es un medio de comunicación altamente confiable y seguro. donde basta con dejar el conductor al descubierto.  Inmunidad a las Interferencias: El uso de medios transparentes para la propagación de ondas electromagnéticas en forma de luz hace que la fibra óptica no necesite voltajes ni de corrientes. Este es uno de los principales factores que motivaron su uso militar ya que para poder obtener información de ella hay que provocarle un daño. El hecho de no necesitar corrientes ni voltaje hace que la fibra óptica sea idónea para aplicaciones en donde se requiere de una probabilidad nula de provocar chispas. por lo tanto..estructurales y de transmisión que establecen las condiciones en las que se puede realizar la transmisión de información.  La apertura numérica. así como también de los diámetros del núcleo y 122 . El fenómeno puede ser provocado por esfuerzos durante la manufactura e instalación y también por variaciones dimensionales de los materiales del cable debidos a cambios de temperatura.  El diámetro del núcleo. Micro curvatura. en donde existe la necesidad de transportar la información a través de medios explosivos. La sensibilidad a las micro curvaturas es función de la diferencia del índice de refracción.  Ancho de banda. daño que podría detectarse fácilmente con equipo especializado.  Longitud de onda de corte. esto lo convierte en un medio de comunicación 100% inmune a todo tipo de interferencias electromagnéticas a su alrededor y. Fuerzas laterales localizadas a lo largo de la fibra dan origen a lo que se conoce como micro curvaturas. como el caso de pozos petroleros y las industrias químicas. Esto no sucede con el cobre. Entre los parámetros estructurales se encuentra:  El perfil de índice de refracción.

Por lo tanto. instalación y utilización. cuando trabaja para contraer a la fibra. Es evidente que las micro curvaturas incrementan las pérdidas ópticas.  Reducir variaciones técnicas de las fibras protegidas con pequeños coeficientes de expansión térmica disponiéndolas alrededor de un elemento con buenas propiedades térmicas. no hay cambio en las perdidas ópticas. Los esfuerzos que provoca la torcedura de las fibras son básicamente una fuerza transversal y un esfuerzo longitudinal. Dadas las razones anteriores. Para prevenir esta situación se toma en cuenta las siguientes consideraciones:  Mantener un radio de curvatura determinada. al evaluar los diseños de los cables se debe poner especial atención en:  La carga transversal trabajando en la fibra durante el cableado... Sin embargo. Tipos básicos de fibras ópticas  Multimodales  Multimodales con índice graduado  Monomodales 123 . este esfuerzo provoca que la fibra forme bucles y se curve.del revestimiento. El curvado de una fibra óptica es causado en la manufactura del cable. El es fuerzo longitudinal no provoca torcedura cuando trabaja para alargar la fibra. el eje de la fibra puede curvarse severamente causando grandes incrementos en las perdidas ópticas. de tal manera que la perdida óptica se incrementa.  El esfuerzo de contracción que ocurre a bajas temperaturas debido al encogimiento de los elementos del cable. así como también por dobleces durante la instalación y variación en los materiales del cable debidos a cambio de temperatura. Curvado. seleccionando el radio y la longitud del cableado.

Por esta razón. La propagación de los rayos en este sigue un patrón similar mostrado en la figura.Fibra multimodal En este tipo de fibra viajan varios rayos ópticos reflejándose a diferentes ángulos como se muestra en la figura. Fibra multimodal con índice graduado En este tipo de fibra óptica el núcleo esta hecho de varias capas concéntricas de material óptico con diferentes índices de refracción. la distancia a la que se puede trasmitir esta limitada. 124 . Los diferentes rayos ópticos recorren diferentes distancias y se desfasan al viajar dentro de la fibra.

Las principales variantes son: 125 . cubierta. La fibra óptica ha venido a revolucionar la comunicación de datos ya que tiene las siguientes ventajas:  Gran ancho de banda (alrededor de 14Hz)  Muy pequeña y ligera  Muy baja atenuación  Inmunidad al ruido electromagnético Para transmitir señales por fibra óptica se utiliza modulación de amplitud sobre un rayo óptico. Fibra monomodal Esta fibra óptica es la de menor diámetro y solamente permite viajar al rayo óptico central. No sufre del efecto de las otras dos pero es más difícil de construir y manipular. por lo tanto. búferes. La transmisión de fibra óptica es unidireccional. y una o más capas protectoras. Construcción. miembros de fuerza. tubo protector. sufren menos el severo problema de las multimodales. la ausencia de señal indica un cero y la presencia un uno.En estas fibras él numero de rayos ópticos diferentes que viajan es menor y. Núcleo. pero experimentalmente se han transmitido hasta Gbps sobre una distancia de 110 Kms. Es también más costosa pero permite distancias de transmisión mayores. Actualmente se utilizan velocidades de transmisión de 50. 100 y 200 Mbps.

Tubo suelto. 4. Hilos múltiples: Para aumentar la tensión. Cada fibra está envuelta en un tubo protector.1. 3. Fibra óptica restringida. hay un miembro central de acero y una envoltura con cinta de Mylar. 126 . 2. Rodeando al cable hay un búfer primario y uno secundario que proporcionan a la fibra protección de las influencias mecánicas externas que ocasionarían rompimiento o atenuación excesiva. Listón: Empleada en los sistemas telefónicos Tiene varios miembros de fuerza que le dan resistencia mecánica y dos capas de recubrimiento protector térmico.

Se limitan a obtener una corriente a partir de la luz modulada incidente. Se utiliza principalmente en sistemas que permiten una fácil discriminación entre posibles niveles de luz y en distancias cortas.  Detectores PIN: Su nombre viene de que se componen de una unión P-N y entre esa unión se intercala una nueva zona de material intrínseco (I). Estos detectores se pueden clasificar en tres tipos:  de silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90% trabajando en primera ventana. Las condiciones que debe cumplir un fotodetector para su utilización en el campo de las comunicaciones. es decir. Se fundamenta en el fenómeno opuesto a la recombinación. Hay dos tipos de detectores los fotodiodos PIN y los de avalancha APD.  Detectores APD: El mecanismo de estos detectores consiste en lanzar un electrón a gran velocidad (con la energía suficiente). en la generación de pares electrón-hueco a partir de los fotones.Corriente eléctrica Este tipo de conversores convierten las señales ópticas que proceden de la fibra en señales eléctricas.  El nivel de ruido generado por el propio dispositivo ha de ser mínimo. El tipo más sencillo de detector corresponde a una unión semiconductora P-N.Conversores Luz. para así poder detectar señales ópticas muy débiles (alta sensibilidad). la cual mejora la eficacia del detector.  de germanio: aptos para trabajar con longitudes de onda comprendidas entre 1000 y 1300 nm y con un rendimiento del 70%. y por tanto. contra un átomo para que sea capaz de arrancarle otro electrón. Requieren alta tensión de alimentación (200-300V).  Rapidez de respuesta (gran ancho de banda). a la forma de onda de la señal moduladora. 127 . son las siguientes:  La corriente inversa (en ausencia de luz) debe de ser muy pequeña. esta corriente es proporcional a la potencia recibida.

sin la necesidad de convertir la señal al dominio eléctrico. las longitudes de onda de bombeo son 980 nm o 1480 nm y para obtener los mejores resultados en cuanto a ruido se refiere. normalmente con tierras raras.6  Longitud de onda de bombeo: 980 nm o 1480 nm2  Ruido predominante: ASE (Amplified Spontaneous Emission) Amplificador óptico de semiconductor (Semiconductor optical amplifier.0. SOA) Los amplificadores ópticos de semiconductor tienen una estructura similar a un láser 128 . Amplificador óptico En fibra óptica. Estos amplificadores necesitan de un bombeo externo con un láser de onda continua a una frecuencia óptica ligeramente superior a la que amplifican. Un amplificador óptico es capaz de amplificar un conjunto de longitudes de onda (WDM. debe realizarse en la misma dirección que la señal. amplificar en eléctrico y volver a pasar a óptico.50 dB  Variación de la ganancia: +/.5 dB  Número de láseres de bombeo: 1 . wavelength division multiplexing). Erbium Doped Fiber Amplifier) que se basa en el dopaje con Erbio de una fibra óptica. Típicamente.  Amplificadores de fibra dopada Amplificadores en fibra son amplificadores ópticos que usan fibra dopada. un amplificador óptico es un dispositivo que amplifica una señal óptica directamente. Algunas características típicas de los EDFAs comerciales son:  Baja figura de ruido (típicamente entre 3-6 dB)  Ganancia entre 15-40 dB  Baja sensibilidad al estado de polarización de la luz de entrada  Máxima potencia de salida: 14 .25 dBm  Ganancia interna: 25 . de compuestos de los grupos III y V. Amplificador de fibra dopada con Erbio (EDFA) El amplificador de fibra dopada más común es el EDFA (del inglés.

la fibra convencional ya instalada puede ser usada como medio con ganancia para la amplificación Raman. Para obtener una buena amplificación es necesario usar potencias de bombeo elevadas (de hasta 1 W y hasta 1. menos ganancia. El anti reflectante incluye un antireflection coating y una guía de onda cortada en ángulo para evitar que la estructura se comporte como un láser. son muy no lineales cuando se operan a elevadas velocidades. son sensibles a la polarización. De esta forma. Es más habitual el bombeo contradireccional para evitar la amplificación de las componentes no lineales. Podría ser menos caro que un EDFA y puede ser integrado con otros dispositivos (láseres. Los SOAs presentan mayor factor de ruido. La señal de bombeo se puede acoplar a la fibra tanto en la misma dirección en la que se transmite la señal (bombeo codireccional) o en el sentido contrario (bombeo contradireccional). las prestaciones no son tan buenas como las que presentan los EDFAs. Su elevada no-linealidad hacen atractivos los SOAs para aplicaciones de procesado como la conmutación toda óptica o la conversión de longitud de onda. El máximo de ganancia se consigue 13 THz (unos 100 nm) por debajo de la longitud de onda de bombeo. es mejor emplear fibras especialmente diseñadas (fibra altamente no lineal) en las que se introducen dopantes y se reduce el núcleo de la fibra para incrementar su no linealidad. en la actualidad. El amplificador óptico de semiconductor suele ser de pequeño tamaño y el bombeo se implementa de forma eléctrica. moduladores.2 W para amplificación en banda L en fibra monomodo estándar). 129 . Sin embargo... Sin embargo. los amplificadores Raman se basan en un una interacción no lineal entre la señal óptica y la señal de bombeo de alta potencia. A diferencia de los EDFAs y de los SOAs... Amplificadores Raman Estos dispositivos se basan en amplificar la señal óptica mediante el efecto Raman.). También se está estudiando su uso para implementar puertas lógicas.Fabry-Perot salvo por la presencia de un anti reflectante en los extremos.

tras iluminar la zona observada. etc. tales como: 130 . La imagen se recoge en la lente que maneja el especialista. No se producen distorsiones de la imagen ya que la alineación de las fibras se mantiene a lo largo del tubo. su fase. tubos para la introducción de anestésicos. broncoscopios. por tanto. evacuación de líquidos. esta es recogida por el haz de fibras ópticas. vaginoscopios gastroscopios y laparoscopios. están siendo sustituidos los sistemas tradicionales por los modernos fibroscopios. Por otra parte. APLICACIONES DE LA FIBRA ÓPTICA EN LA MEDICINA: En este campo son evidentes las ventajas que puede aportar el uso de la fibra óptica como ayuda a las técnicas endoscópicas clásicas y. Hay sensores de muchos tipos que incluyen esta tecnología. APLICACIONES. rectoscopios. plano de polarización o frecuencia. La fibra óptica no nos plantea este problema. locales de industrias con emanaciones. la cual nos permite con gran precisión la exploración de cavidades internas del cuerpo humano. el endoscopio emite una señal luminosa que. Una fibra se encarga de transportar la luz al interior del organismo y la otra lleva la imagen a un monitor. pinzas para toma de muestras. APLICACIONES DE LA FIBRA ÓPTICA EN SENSORES: Los sistemas eléctricos convencionales son a menudo inadecuados en entornos de altas tensiones y zonas con campos interferentes. de hecho. Diversos aparatos como laringoscopios. Para la obtener las imágenes de la región corporal que se explora. como su índice de refracción o su forma. Los fibroscopios realizados con ayuda de las técnicas opticoelectrónicas cuentan con un extremo fijo o adaptable para la inserción de agujas. La información requerida será proporcionada por sensores que incluyen fibras y aprovechan su receptividad a los estímulos mencionados. El nivel de ruido que se obtiene es bajo especialmente cuando se usa junto con EDFAs .Normalmente se emplean más de dos diodos de bombeo. electrodos de cauterización. la aplicación de esfuerzos mecánicos. los sensores son un punto bastante importante en el que se aplica la tecnología de la fibra óptica. alteraciones térmicas y campos eléctricos o magnéticos modifica determinadas características de las fibras. medíble por medio de fibras ópticas y aplicable a los entornos citados. Gracias a la exactitud que nos proporciona este medio. que a su vez provocan cambios en la intensidad de la luz guiada. incluyen ya esta tecnología. La amplitud de variación de estos agentes externos es.

acelerómetros. no de su intensidad. Otra razón de tanta importancia como la anterior. Todo esto es continuamente aplicado a instrumentos de la vida cotidiana. gran ancho de banda y una gran sensibilidad . la más importante de las cuales son flexibilidad geométrica. Sensores de presión Sensores de temperatura. de modo que no le ha sido preciso realizar grandes inversiones para proyectos específicos. en las que el impulso de las tecnologías avanzadas venía provocado a veces por necesidades militares previas. Sensores eléctricos y magnéticos Sensores de rotación. De este modo se reduce notablemente la necesidad de la codificación de mensajes en virtud de la seguridad antidetección inherente a las fibras. aunque debe advertirse que sí pueden ser interferidas por modificación de la polarización del haz de luz. magnetómetros. inmunidad interferencia electromagnética y pulsos electromagnéticos.• • • • • • Sensores acústicos. tales como hidrófonos. es el poco peso de los cables de fibras. y otros dispositivos. en este caso el estamento militar se ha visto favorecido posteriormente por los desarrollos conseguidos en la industria civil de las telecomunicaciones. y que justifica su aplicación militar. giroscopios. ya que es imposible seguir electrónicamente un cable de fibras hasta llegar al equipo 131 . lo que proporciona importantes ahorros logísticos de material de campaña y personal. Los beneficios de esta tecnología para los militares radican fundamentalmente en la seguridad de este medio de transmisión frente a las comunicaciones por radio y cables convencionales. así como su reducido tamaño. Estos dispositivos y exhibe numerosas ventajas. Sensores de aceleración. APLICACIONES MILITARES DE LOS SISTEMAS DE FIBRAS En contraste con situaciones anteriores. como por ejemplo habilidad para detectar señales de niveles muy bajos y con pequeños cambios. No por esto deja de ser interesante esta propiedad. También es muy importante para el empleo de fibras es su inmunidad a las detecciones de carácter electromagnético.

Las ondas de luz.El comportamiento de los conductores ópticos frente a las radiaciones nucleares es de alta seguridad. Una aplicación táctica muy interesante es el uso de la fibra para la colocación de rádares distantes del centro de operaciones. la capacidad de transmisión. y para mayor seguridad en cuanto a la no necesidad de uso de la electricidad. APLICACIÓN DE LA FIBRA ÓPTICA EN LA ILUMINACIÓN: Es obvio que. ya que la seguridad de la fibra frente a los factores ambientales es extraordinaria. debido a sus particulares características nombradas anteriormente.. lo que la fibra óptica transporta es luz. Los mísiles se controlan desde uno o más centros y las rampas están interconectadas por una red redundante de cables ópticos. aumentando considerablemente la visión de estas a los conductores nocturnos. riesgos de incendio. industrias de altos componentes inflamables.. En cuanto a ocio. al igual que las de radio. Otra aplicación en la que la fibra está tomando importancia. por otra parte. ante todo. se recupera en pocos minutos tras una explosión. tales como los conectores. en el caso de las actuales fibras monomodo ha mejorado notablemente su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento de las fibras multimodo anteriores.. así se pueden disponer con gran margen de seguridad los radares de detección en cualquier punto de las operaciones. ya que. la fibra a tomado gran relevancia en lo que a iluminaciones de fuentes y piscinas se refiere. explotaciones mineras. Además. esta aplicación es bastante importante. También se puede llevar a cabo el guiado del misil mediante fibras ópticas. evitando así el riesgo de electrocutarse como puede suceder en piscinas que son iluminadas mediante sistemas convencionales.. nos permite con suma facilidad iluminar zonas especiales sometidas a toxicidades. Factores muy importantes a considerar en el uso de estos sistemas en el campo militar es el de la sencillez.. son una forma de 132 .. También en el caso de mísiles de crucero lanzados desde guerra se lleva a cabo el control de] lanzamiento mediante fibras ópticas. APLICACIONES DE LA FIBRA ÓPTICA EN LAS TELECOMUNICACIONES Un sistema de comunicaciones ópticas es una forma de transmitir información cuyo soporte básico es la luz. tales como industrias petrolíferas. porque éstas no se transmiten hasta los equipos terminales. fiabilidad y duración de los componentes de intemperie. Al margen de la información que esta pueda enviar. La información viaja en forma de luz a lo largo de dicho sistema. es en la señalización en las carreteras.

En fibra óptica la atenuación es bajísima. debido a la gran cantidad de materia prima que existe en el planeta para fabricarla. La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps . en cambio. El precio de la fibra.radiación electromagnética. no nos plantea un gran problema que sucede con el método convencional: caerse de la red continuamente.. lo que permite comunicaciones de todo tipo en tiempo real y con cualquier punto del planeta. A continuación vamos a analizar mas detalladamente aplicaciones de la fibra óptica en diversos ámbitos de las comunicaciones: Aplicaciones de la fibra óptica en Internet El servicio de conexión a Internet por fibra óptica. tales como videos. en el que la mayoría de usuarios se conecta a 28. derriba la mayor limitación de este medio: La lentitud del trato de la información. redes de área local (como las redes LAN). Hoy en día . Es por ello que pueden usarse. Internet a altas velocidades. sonidos.. ya se sabe que la forma más eficiente de que la luz viaje desde un punto hasta otro es mediante la fibra óptica. aunque esto todavía no está totalmente resuelto. Nos permite trabajar con gran rapidez en entornos multimedia. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. . pero no se pudo aplicar ya que no había fuentes de luz ni medios para transportarla adecuados. al igual que se usan las ondas de radio para la transmisión de información. Aplicaciones de la fibra óptica en redes 133 .000 0 33. por los que las pérdidas de información sueles ser inapreciables. La conexión de Internet mediante fibra a parte de ser mucho mas rápida. El inmenso ancho de banda (de gigaherzios) nos da la posibilidad de establecer comunicaciones múltiples tales como videoconferencias. Esta idea surgió hace más de un siglo.600 bps. La información que se transmite viaja a la velocidad de la luz. cada vez es más barato. En un principio fueron los militares los que idearon este sistema debido a las grandes ventajas que esto le reportaría: La fibra óptica no permite que nadie pueda acceder a la información transmitida en el proceso comunicativo sin que el usuario pueda detectarlo. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica. impensable en el sistema convencional. La fibra también nos resuelve en gran medida los problemas de masificación de interlocutores.

estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. Otra ventaja del teléfono mediante fibra óptica es la posibilidad de establecer conexión de Internet y teléfono al mismo tiempo y con tan solo una línea. para que no se produzcan accidentes. conforme al funcionamiento. la fibra está consiguiendo abaratar las tarifas telefónicas. Al contrario que las comunicaciones de larga distancia. en las que la precisión ha de ser casi exacta. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. Las computadoras de una red de área local están separadas por distancias de hasta unos pocos kilómetros. es decir. Otros recursos informáticos conectados son las redes de área amplia (WAN. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.La fibra óptica ha ganado gran importancias en el campo de las redes de área local. se tiene primeramente la red interurbana y red provisional. situados en distintos lugares de un país o en diferentes países. y suelen usarse en oficinas o campus universitarios. hacia el centro la red urbana y finalmente las líneas de abonado. Esto no 134 . Las redes de comunicación públicas están divididas en diferentes niveles. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra. Una LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. como en el resto de las telecomunicaciones por fibra el empleo de amplificadores de señal cada pocos kilómetros. La fibra nos permite una comunicación libre de interferencias. cables con fibras monomodo ó multimodo. y no hace falta. si está aproximándose desde el exterior hacia el interior de una gran ciudad. también toma un papel importante la fibra óptica. Las WAN son similares a las LAN. en todas las modernas ciudades se está introduciendo el sistema de fibra para el teléfono e Internet. pero conectan entre sí ordenadores separados por distancias mayores. Actualmente. a la capacidad de transmisión. Wide Area Network) o las centralitas particulares (PBX). Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado. así como al alcance que definen. así como de posibilidad de boicoteo de la línea (tan común en las líneas de cobre) La escucha es mucho mas nítida. a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural). En las redes de semáforos. Aplicaciones de la fibra óptica en telefonía En este campo es en el que más se está extendiendo la fibra óptica. Por ejemplo. Debido a todo esto.

Será uno de los mejores ejemplos de la interactividad que permite la fibra óptica. el gas o la electricidad que. pero con la mejor calidad de sonido. sus costos. deportivos. Telecompra: Tendrá acceso directo a anuncios por palabras con opción a compra. eventos. canales premium.. espectáculos. comercios. Banco en Casa: Realización de cualquier tipo de transacción bancaria. Otras aplicaciones de la fibra óptica en telecomunicaciones: La fibra óptica permite acceder a una infinidad de servicios referente a las telecomunicaciones tales como: Televisión: Recepción de una gran número de canales con distintas opciones de compra. Canales temáticos para todos los gustos musicales. musicales. como también el uso que se le da.. posteriormente serán enviados a las empresas correspondientes que nos pasarán la factura de acuerdo con lo consumido. Facilitará el acceso a información sobre restaurantes. una oferta amplísima compuesta por canales informativos. pago por visión . Radio Digital.. espectáculos.. 135 . Telemedida: La fibra óptica permite recoger información sobre medidas de servicios como el agua. infantiles.sería posible en una línea de teléfono convencional debido a lo reducido de su ancho de banda para transmitir información.. Fibra Óptica II En mi punto de vista creo que deberíamos de analizar y hablar sobre el tema de la fibra óptica.. contratación de un depósito o la cancelación y cambio de entidad. documentales. desde movimientos entre cuentas. Web TV. Paquete básico. ya que hace más de una década que se emplea como conductor. Analizándolo mencionaremos la importancia y las ventajas que existen. su accesibilidad y principalmente su historia. vídeo bajo demanda. hasta navegar por un centro comercial con la posibilidad de adquirir el objeto que más desee.

Utilizó un haz de luz para llevar información. DESARROLLO Creo que uno de los puntos mas importantes de la fibra óptica es como la luz que viaja a través del cable. automatización industrial.2 dB/Km. el avance tecnológico en la 136 . para mi esto es la superioridad de este nuevo medio de transmisión. oxigeno y partículas en el aire absorben y atenúan las señales en las frecuencias de luz. ya que una instalación de cobre para uso telefónico nos sale más costosa que si la hiciéramos en fibra óptica. Se encuentra una línea de cable submarino de fibra óptica que conecta con las ciudades más importantes de América del norte y América latina junto con Europa. pues así nos vamos limitando a usar cable común (cobre. Mientras que su accesibilidad y sus aplicaciones en México. en el año 1880. La fibra óptica puede decirse que fue obtenida en 1951. otra ventaja seria que son muy confiables por su resistencia a las interferencias electromagnéticas que afectan a las ondas de radio. existen empresas que ya mantienen una segura conexión de fibra óptica actualmente. la conexión telefónica. 0. 0.En primer lugar existe una gran importancia. sistemas de televisión por cable. (al incrementar la distancia 3 metros la potencia de luz disminuía ½). Por tanto a finales de los años 70 y a principios de los 80. 2.Lo importante es que el volumen de información esto es los ceros y unos que se puede transmitir en la fibra óptica es miles de veces mayor que el de una línea telefónica. El primer intento de utilizar la luz como soporte para una transmisión fue realizado por Alexander Graham Bell. computación. (1972).47 dB/Km.5 dB/Km. (1976). aluminio. una guía de fibra llamada Fibra óptica la cual transmite información lumínica. (1973). además de telefonía.En el caso de los unos están representados por pulsos de luz y los ceros por espacios entre cada pulso . y varias cosas que ya se pueden utilizar hoy en día. (1979). con una atenuación de 1000 dB/Km. que seria información codificada en forma digital como una secuencia de 1 y 0. Se ha buscado entonces la forma de transmitir usando una línea de transmisión de alta confiabilidad que no reciba perturbaciones desde el exterior. estas perdidas restringía. la compañía de CORNING GLASS de Estados Unidos fabricó un prototipo de fibra óptica de baja perdida. con 20 dB/Km. para el interés de un ingeniero es de suma importancia hacer un breve análisis de lo que enseguida mencionare. Mantener e instalar una conexión de fibra óptica es una de las ventajas que existen asimismo sus costos.) en las instalaciones como por ejemplo: la iluminación de un automóvil. las transmisiones ópticas a distancias cortas. etc. etc. En 1970. Luego se consiguieron fibras de 7 dB/Km. pero se evidenció que la transmisión de las ondas de luz por la atmósfera de la tierra no es práctica debido a que el vapor de agua.

alta capacidad y eficiencia.fabricación de cables ópticos y el desarrollo de fuentes de luz y detectores.3 % inferior al del núcleo n1 ). es capaz de concentrar.2 a 0. desde lograr una mayor velocidad en la transmisión disminuir 137 . Adicionalmente incluye una cubierta externa adecuada para cada uso llamado recubrimiento. aproximadamente y el diámetro del núcleo que transmite la luz es próximo a 10 ó 50 micrómetros. guiar y transmitir la luz con muy pocas pérdidas incluso cuando esté curvada. el interior llamado núcleo (se construye de elevadísima pureza con el propósito de obtener una mínima atenuación) y el exterior llamado revestimiento que cubre el contorno (se construye con requisitos menos rigurosos). constituida de material dieléctrico (material que no tiene conductividad como vidrio o plástico).1 mm. Está formada por dos cilindros concéntricos. Portadora de información En poco más de 10 años la fibra óptica se ha convertido en una de las tecnologías más avanzadas que se utilizan como medio de transmisión de información. abrieron la puerta al desarrollo de sistemas de comunicación de fibra óptica de alta calidad. Este novedoso material vino a revolucionar los procesos de las telecomunicaciones en todos los sentidos. ambos tienen diferente índice de refracción ( n2 del revestimiento es de 0. El diámetro exterior del revestimiento es de 0. Fotodiodos y LASER (amplificación de luz por emisión estimulada de radiación). Este desarrollo se vio apoyado por diodos emisores de luz LEDs. ¿Qué es la fibra óptica? La Fibra Óptica es una varilla delgada y flexible de vidrio u otro material transparente con un índice de refracción alto.

en el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. su proceso de elaboración es controlado por medio de computadoras. con el tiempo se ha planteado para un amplio rango de aplicaciones además de la telefonía. amplia capacidad de transmisión y un alto grado de confiabilidad debido a que son inmunes a las interferencias electromagnéticas de radio-frecuencia. De esta forma es considerable el ahorro en volumen en relación con los cables de cobre. por ello se le considera el componente activo de este proceso. lo que también eleva los costos. Originalmente. (Decremento o reducción de la onda o frecuencia) es de tal magnitud que requieren de repetidores cada dos kilómetros para regenerar la transmisión. Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente compactos: El grosor de una fibra es similar a la de un cabello humano. que puede ser utilizado para incrementar la capacidad de transmisión con el fin de reducir el costo por canal. sea uniforme y evite las desviaciones. con la desventaja que este último medio ocupa un gran espacio en los ductos y requiere de grandes volúmenes de material. entre sus principales características se puede mencionar que son compactas. Las fibras ópticas no conducen señales eléctricas por lo tanto son ideales para incorporarse en cables sin ningún componente conductivo y pueden usarse en condiciones peligrosas de alta tensión. sin embargo. mientras que se requiere de 10. la fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho de banda. Fabricadas a alta temperatura con base en silicio. sistemas de televisión por cable y transmisión de información de imágenes astronómicas de alta resolución entre otros. automatización industrial. Con un cable de seis fibras se puede transportar la señal de más de cinco mil canales o líneas principales.casi en su totalidad los ruidos y las interferencias hasta multiplicar las formas de envío en comunicaciones y recepción por vía telefónica. Sin que halla necesidad de recurrir a repetidores lo que también hace más económico y de fácil mantenimiento este material. con bajas pérdidas de señal.000 pares de cable de cobre convencional para brindar servicio a ese mismo número de usuarios. computación. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún circuito adicional de protección y no hay problemas debido a los cortos circuitos Tienen un gran ancho de banda. que es la guía de la onda luminosa. ligeras. Una vez que es 138 . Concepto de transmisión En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa. Comparado con el sistema convencional de cables de cobre donde la atenuación de sus señas. para permitir que el índice de refracción de su núcleo.

amplificador y señal de salida. amplificador. José de la Herrán 2(UNAM). José de la Herrán 2(UNAM) Ventajas Una de sus ventajas que mencionaré creo que es la más importante. las propiedades de los materiales empleados (diseño óptico) y el intervalo de longitudes de onda de la fuente de luz utilizada (cuanto mayor sea éste. El sistema básico de transmisión se compone en este orden. en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor. generado por el transmisor de LED'S (diodos emisores de luz) y láser. receptor. 139 . Mientras que con el sistema de cables de cobre se requieren repetidores cada dos kilómetros. esto es. este sistema puede transmitir los mensajes o los datos a cualquier distancia a lo largo y ancho de nuestro planeta. los amplifica y los convierte nuevamente en pulsos luminosos para inyectarlos en el siguiente tramo de fibra. En resumen. además pueden propagarse simultáneamente ondas ópticas de varias longitudes de onda que se traduce en un mayor rendimiento de los sistemas. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica.Esto es la capacidad que tiene este conductor pero.La capacidad de transmisión es muy elevada. Textos científicos 1(2005) dice . la fibra óptica funciona como medio de transportación de la señal luminosa. de señal de entrada. corrector óptico. Con suficientes repetidores. menor será la capacidad de transmisión de información de la fibra). debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización.* Ing. similar a la señal original. se puede decir que este proceso de comunicación. Cada cierta distancia hay que colocar un "repetidor". que es un conductor que no transmite corriente eléctrica. longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas. esto se demuestra a continuación. los convierte en pulsos eléctricos. línea de fibra óptica (primer tramo) empalme.transmitida la señal luminosa por las minúsculas fibras. fuente de luz. Además su pequeño tamaño. La capacidad de transmisión de información depende básicamente de tres características: el diseño geométrico de la fibra. todas las conversaciones telefónicas de un país. línea de fibra óptica (segundo tramo). De hecho 2 fibras ópticas serían capaces de transportar.* Ing. ¿seria una ventaja para nuestros medios de información? Es cierto que tiene mucha capacidad pero también es cierto que debemos “repetir” a cierta distancia la luz debido a la atenuación. un dispositivo que recibe los pulsos de luz. su luminosidad. con equipos de transmisión capaces de manejar tal cantidad de información (entre 100 MHz/Km a 10 GHz/Km). con el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. cuya misión consiste en transformar la señal luminosa en energía electromagnética. corrector óptico.

se conservo hasta el advenimiento de las fibras ópticas. la materia prima utilizada en la fabricación es el dióxido de silicio (Si0 2 ) que es uno de los recursos más abundantes en la superficie terrestre. La comunicación se realiza a través de un rayo de luz.  Inmunidad a transmisiones cruzadas entre cables. lo que implica una menor necesidad de colocar repetidores cada cierta distancia abaratando así los costos del sistema. la señal que viaja en fibra óptica no puede ser detectada. Son menos afectadas por líquidos corrosivos. 140 .  Resistencia a extremos ambientales. por lo cual no puede sufrir interferencia de tipo electromagnético. son estos dos elementos los que limitan la velocidad de transmisión.Capacidad de transmisión: La idea de que la velocidad de transmisión depende principalmente del medio utilizado.*la fibra óptica 3(2010). Gran flexibilidad y recursos disponibles Los cables de fibra óptica se pueden construir totalmente con materiales dieléctricos. gases y variaciones de temperatura. Existe un aislamiento eléctrico entre el emisor y el receptor al ser la fibra óptica dieléctrica (no conductora de electricidad).  Inmunidad a interferencia estática debida a las fuentes de ruido. de su instalación y mantenimiento. causadas por inducción magnética.  La seguridad en cuanto a instalación y mantenimiento.  Mayor capacidad debido al ancho de banda mayor disponible en frecuencias ópticas. ya que ellas pueden transmitir a velocidades mucho más altas de lo que los emisores y transmisores actuales lo permiten. De la misma forma. por lo tanto. Existe una menor pérdida de potencia. se pueden usar cerca de líquidos y gases volátiles. Las fibras de vidrio y los plásticos no son conductores de electricidad.

Sin embargo si el requerimiento de capacidad de información es bajo la fibra óptica puede ser de mayor costo. y Australia. *textos científicos 1(2005). y el Telstra para el consorcio.Aislamiento eléctrico entre terminales Al no existir componentes metálicos (conductores de electricidad) no se producen inducciones de corriente en el cable. Además. los costes de mantenimiento de una planta de fibra óptica son mucho más bajos que los de una planta de cobre. por tanto pueden ser instalados en lugares donde existen peligros de cortes eléctricos. Las llamadas del contrato US$84 millón para que la compañía instale un estiramiento de 4. **time-out** cuando él introducir servicio. contraer sistema tener mínimo capacidad 20 Gb/s que poder acomodar aproximado 240. el 1997 de ENERO 21 (NOTA) -Fujitsu Ltd. Costos y mantenimiento En cuanto a sus costos y mantenimiento hare mención a ello dando como prueba una pequeña investigación. TOKIO. JAPÓN. el Indosat.500 kilómetros (kilómetro) del cable de SEA-ME-WE 3 entre Singapur. decir Fujitsu.000 simultáneo teléfono circuito. el coste de construir una planta de fibra óptica es comparable con el coste de construir una planta de cobre. 141 . Ausencia de radiación emitida Las fibras ópticas transmiten luz y no emiten radiaciones electromagnéticas que puedan interferir con equipos electrónicos. por lo tanto constituyen el medio más seguro para transmitir información de muy alta calidad sin degradación. El cable se planea para ser terminado antes del de enero 31 de 1999. [TOKYO:6702] ha ganado el contrato para proveer la sección de AsiaPacific del cable óptico de la fibra submarina más larga del mundo. tampoco se ve afectada por radiaciones emitidas por otros medios. El contrato de Fujitsu fue concedido por el Singapur telecom. Indonesia. Actualmente. Era parte de una serie de contratos firmados en Singapur recientemente para el edificio del sistema del cable por un consorcio de compañías internacionales de las telecomunicaciones.

por lo que se hace necesario simplificar la ecualización y compensación de las variaciones en dichas propiedades. Transmite 2400 llagadas simultáneas. las curvaturas que sufre el cable. si se compara peso contra cantidad de datos transmitidos se puede observar por ejemplo. *RTFO grupo 18 4(2008). ya que el método de fabricación determina la atenuación mínima que existe en ella. Atenuación Es el factor que indica con que frecuencia deben colocarse los repetidores de la señal que se conduce o propaga por el medio.720 llamadas simultáneas.Sin embargo si se requiere una capacidad de información baja. Otro de estos factores es el tipo de fibra utilizada. mientras el núcleo es aun más delgado. etc. 142 . A través de la fibra óptica se pueden transmitir señales a zonas eléctricamente ruidosas con un bajo índice de error y sin interferencias. Dimensiones Y Peso Una de las características más notoria de la fibra óptica es su tamaño. los cuales tienen un grosor de 8 cm. puede variar debido a un gran número de factores tales como la humedad. la fibra óptica puede implicar un mayor coste. que en la mayoría de los casos es de revestimiento 125 micras de diámetro. La transmisión es prácticamente inalterable debido a los cambios de temperatura. La cantidad de información transmitida es enorme. una comunicación telefónica que se realiza a través de cables tipo TAB. en comparación las fibras ópticas alcanzan las 30.

Las características de transmisión son prácticamente inalterables debido a los cambios de temperatura. Comparadas con el cobre. Al igual que en la atenuación. Las señales se pueden transmitir a través de zonas eléctricamente ruidosas con muy bajo índice de error y sin interferencias eléctricas. la regenera y la coloca en un dispositivo de emisión de luz para que se siga propagando. Aplicaciones Definitivamente el cable de cobre es más barato que la fibra óptica. esto significa que la distancia lograda con la fibra es 164 veces mayor que la de su equivalente el cobre. la convierte a señal eléctrica. así como acortar distancias. con fibras y equipos mas sofisticado las distancias pueden ir hasta los 2.5 Km. y contar con un medio de transmisión amplio y más seguro. sin la necesidad de los repetidores. la distancia máxima que puede alcanzarse esta muy relacionada con el tipo de fibra. siendo innecesarios y/o simplificadas la ecualización y compensación de las variaciones en tales propiedades. 143 . Un repetidor de fibra es aquel que toma una señal de luz. Por tanto dependiendo de los requerimientos de comunicación la fibra óptica puede constituir el mejor sistema.2 mts. Transmitiendo a un a velocidad de 19200 Bps. Aplicaciones de laboratorio han permitido alcanzar distancias de 111km. las fibras ópticas permiten que las distancias entre repetidores sean más grandes. a 5 Gbps. Una línea de fibra óptica puede transmitir a esa velocidad hasta una distancia de 2. un dispositivo que le vuelva a dar potencia para seguir avanzando.Distancia Umbral Conforme la señal avanza por el medio va perdiendo fuerza hasta llegar al punto en que si desea transmitirse a mayor distancia debe colocarse un repetidor. En las versiones sencillas se logran distancias típicas de dos Km entre el transmisor y en receptor. . en un enlace para dispositivos RS232 (puerto serial) la distancia máxima entre dos nodos es de 15. Se mantiene estable entre -40 y 200 ºC . Por ejemplo.*textos científicos 1(2005).5km. Sin repetidor. realmente la fibra óptica justifica sus precios por los beneficios que ofrece frente a los del cable de cobre. sin embargo si se trata de obtener un mayor ancho de banda y de fidelidad.

broncoscopios. medicina. Campos tales como las telecomunicaciones. están siendo sustituidos los sistemas tradicionales por los modernos fibroscopios. tubos para la introducción de anestésicos. etc. esta en un continuo proceso de expansión. Además. a que esta información viaja a la velocidad de la luz. rectoscopios. por difícil acceso.* fibra óptica 5(2002). evacuación de líquidos. etc. mecánica y vigilancia se benefician de las cualidades de esta herramienta óptica. la cual nos permite con gran precisión la exploración de cavidades internas del cuerpo humano. todas las aplicaciones que se basan en la luminosidad (bien sea por falta de esta.Las aplicaciones de la fibra óptica hoy en día son múltiples. (debido a su gran ancho de banda. Partiendo de que la fibra óptica transmite luz. Medicina En este campo son evidentes las ventajas que puede aportar el uso de la fibra óptica como ayuda a las técnicas endoscópicas clásicas y. electrodos de cauterización. de hecho. Diversos aparatos como laringoscopios. vaginoscopios gastroscopios y laparoscopios. incluyen ya esta tecnología. prácticas militares.) dichas aplicaciones se multiplican. con fines decorativos o búsqueda de precisión) tiene cabida este campo. Arqueología 144 . arqueología. sin conocer exactamente límites sobre ello. baja atenuación. pinzas para toma de muestras. Si a todo esto sumamos la gran capacidad de transmisión de información de este medio. Los fibroscopios realizados con ayuda de las técnicas opticoelectrónicas cuentan con un extremo fijo o adaptable para la inserción de agujas.

La fibra óptica no nos plantea este problema. Gracias a la exactitud que nos proporciona este medio. la más importante son flexibilidad geométrica. De este modo se reduce notablemente la necesidad de la codificación de mensajes en virtud de la seguridad antidetección inherente a las fibras. Como en medicina también se usa un endoscopio. Sensores Los sistemas eléctricos convencionales son a menudo inadecuados en entornos de altas tensiones y zonas con campos interferentes. • Aplicaciones Militares Los beneficios de esta tecnología para los militares radican fundamentalmente en la seguridad de este medio de transmisión frente a las comunicaciones por radio y cables convencionales. así como su reducido tamaño. gran ancho de banda y una gran sensibilidad .En este campo. como por ejemplo habilidad para detectar señales de niveles muy bajos y con pequeños cambios. inmunidad interferencia electromagnética y pulsos electromagnéticos. es el poco peso de los cables de fibras. los sensores son un punto bastante importante en el que se aplica la tecnología de la fibra óptica. la fibra óptica se usa habitualmente con el fin de poseer un acceso visual a zonas que son inaccesibles mediante otros sistemas. Otra razón de tanta importancia como la anterior. 145 . locales de industrias con emanaciones. lo que proporciona importantes ahorros logísticos de material de campaña y personal. Estos dispositivos exhiben numerosas ventajas. y que justifica su aplicación militar. Hay sensores de muchos tipos que incluyen esta tecnología. tales como: • • • • • • Sensores acústicos Sensores eléctricos y magnéticos Sensores de rotación Sensores de aceleración Sensores de presión Sensores de temperatura.

Iluminación Es obvio que. nos permite con suma facilidad iluminar zonas especiales sometidas a toxicidades. explotaciones mineras. También se puede llevar a cabo el guiado del misil mediante fibras ópticas. se recupera en pocos minutos tras una explosión. esta aplicación es bastante importante. Una aplicación táctica muy interesante es el uso de la fibra para la colocación de radares distantes del centro de operaciones. es en la señalización en las carreteras. aumentando considerablemente la visión de estas a los conductores nocturnos.El comportamiento de los conductores ópticos frente a las radiaciones nucleares es de alta seguridad. fiabilidad y duración de los componentes de intemperie. lo que la fibra óptica transporta es luz. así se pueden disponer con gran margen de seguridad los radares de detección en cualquier punto de las operaciones. tales como industrias petrolíferas. la capacidad de transmisión. ante todo. debido a sus particulares características nombradas anteriormente. etc. Otra aplicación en la que la fibra está tomando importancia. en el caso de las actuales fibras monomodo ha mejorado notablemente su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento de las fibras multimodal anteriores. tales como los conectores. Al margen de la información que esta pueda enviar. riesgos de incendio. Los mísiles se controlan desde uno o más centros y las rampas están interconectadas por una red redundante de cables ópticos. industrias de altos componentes inflamables y muchas otras. ya que la seguridad de la fibra frente a los factores ambientales es extraordinaria. porque éstas no se transmiten hasta los equipos terminales. También en el caso de mísiles de crucero lanzados desde guerra se lleva a cabo el control de] lanzamiento mediante fibras ópticas. ya que. Además. Factores muy importantes a considerar en el uso de estos sistemas en el campo militar es el de la sencillez. por otra parte. 146 .

y para mayor seguridad en cuanto a la no necesidad de uso de la electricidad. Hoy en día . ya que puede filtrar los componentes ultravioletas de la luz. se sabe que la forma más eficiente de que la luz viaje desde un punto hasta otro es mediante la fibra óptica.En cuanto a ocio. evitando así el riesgo de electrocutarse como puede suceder en piscinas que son iluminadas mediante sistemas convencionales. Siguiendo con las aplicaciones de la fibra para iluminación cabe destacar el factible uso que se le da en museos. la fibra a tomado gran relevancia en lo que a iluminaciones de fuentes y piscinas se refiere. La información viaja en forma de luz a lo largo de dicho sistema. consiguiendo así evitar el deterioro de las pinturas. Telecomunicaciones Un sistema de comunicaciones ópticas es una forma de transmitir información cuyo soporte básico es la luz. Internet 147 .

no nos plantea un gran problema que sucede con el método convencional: caerse de la red continuamente. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica. derriba la mayor limitación de este medio: La lentitud del trato de la información. sonidos. Telefonía En este campo es en el que más se está extendiendo la fibra óptica. en todas las modernas ciudades se está introduciendo el sistema de fibra para el teléfono e Internet. y suelen usarse en oficinas o campus universitarios. y no hace falta. Al contrario que las comunicaciones de larga distancia. estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. Otros recursos informáticos conectados son las redes de área amplia (WAN. aunque esto todavía no está totalmente resuelto. Actualmente. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra. Una LAN (redes locales de información) permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. La conexión de Internet mediante fibra a parte de ser mucho mas rápida.El sonido es mucho mas nítido. Nos permite trabajar con gran rapidez en entornos multimedia. 148 . Redes La fibra óptica ha ganado gran importancias en el campo de las redes de área local. Wide Area Network) o las centralitas particulares (PBX). pero conectan entre sí ordenadores separados por distancias mayores. Por ello las líneas telefónicas no son la única vía hacia el ciberespacio. así como de posibilidad de boicoteo de la línea (tan común en las líneas de cobre) . La fibra nos permite una comunicación libre de interferencias. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. etc.El servicio de conexión a Internet por fibra óptica. situados en distintos lugares de un país o en diferentes países. La fibra también nos resuelve en gran medida los problemas de masificación de interlocutores. tales como videos. Las computadoras de una red de área local están separadas por distancias de hasta unos pocos kilómetros. como en el resto de las telecomunicaciones por fibra el empleo de amplificadores de señal cada pocos kilómetros. Las WAN son similares a las LAN.

infantiles. Las instalaciones de telecomunicación de interés en estos sectores pueden subdividirse en: • • • • Redes de telecomunicación (telefonía y transmisión de datos). Instalaciones de control y adquisición de datos. Instalaciones de mando y señalización.. deportivos. espectáculos..transmisión de video. hasta navegar por un centro comercial con la posibilidad de adquirir el objeto que más desee.. pero con la mejor calidad de sonido. posteriormente serán enviados a las empresas correspondientes que nos pasarán la factura de acuerdo con lo consumido. Sistemas punto a punto . pago por visión. Web TV: Será uno de los mejores ejemplos de la interactividad que permite la fibra óptica. vídeo bajo demanda. comercios. desde movimientos entre cuentas. Radio Digital: Canales temáticos para todos los gustos musicales. Transportes Las especiales características de la fibra óptica han suscitado su interés en aplicaciones a otros sectores de actividad con exigencias especiales en materia de comunicaciones. eventos. 149 .. musicales. documentales. espectáculos. Telecompra: Tendrá acceso directo a anuncios por palabras con opción a compra. el gas o la electricidad que. Paquete básico. Facilitará el acceso a información sobre restaurantes. Telemedida: La fibra óptica permite recoger información sobre medidas de servicios como el agua.Otra ventaja del teléfono mediante fibra óptica es la posibilidad de establecer conexión de Internet y teléfono al mismo tiempo y con tan solo una línea. contratación de un depósito o la cancelación y cambio de entidad. una oferta amplísima compuesta por canales informativos. Banco en Casa: Realización de cualquier tipo de transacción bancaria. canales premium. Otras Aplicaciones La fibra óptica permite acceder a una infinidad de servicios referente a las telecomunicaciones tales como: • • • • • • Televisión: Recepción de una gran número de canales con distintas opciones de compra... Esto no sería posible en una línea de teléfono convencional debido a lo reducido de su ancho de banda para transmitir información. un ejemplo típico es el sector de los transportes ferroviarios y metropolitanos.

mientras que al instalar cable de cobre. Y así es de importante hoy en día la fibra óptica sin ella creo que muchas de las nuevas empresas de telefonía y de televisión por cable no existirían. va de la comodidad de cada empresa. donde hace años que existen usos especiales. debido a su ligereza y a su resistencia a condiciones climáticas adversas. aluminio.pues para mantenerlo iluminado solo bastarían con instalar fibra óptica. etc. etc. en cuanto a sus aplicaciones son muchas las que se le da. 150 . industriales. Conclusiones: La fibra óptica para mi es un importante medio de conducción de información. también han adquirido una severa importancia en los transportes aéreos. una mejor opción seria la fibra óptica. Necesitan de electricidad de mucha corriente eléctrica. realizarlo y llevarlo a su conectividad les sale costoso. Es demasiado importante como el conductor de fibra óptica. pero esto seria para aquellas empresas cuyos ingresos económicos son muchos. lo que hace que una cirugía sea más segura y practica. Lo mencionaba anteriormente que para darle uso como cable telefónico.Pueden encontrarse otras aplicaciones interesantes de la fibra óptica a bordo de vehículos. aparato que se utiliza se fabrique con fibra óptica. En otro campo como en la medicina me parece que es muy importante que cada instrumento. Esta aplicación en particular. Por otra parte el cable de cobre ¿donde quedaría? y las fabricas que lo hacen ¿también dejaría de existir? Creo que no porque todas las plantas de energía eléctrica necesitan de mucho cable también conexiones a aparatos domésticos. ha encontrado una difusión tan amplia que en la actualidad cada vehículo tiene en promedio dos metros de haz de fibras ópticas. Además. ya que su velocidad y capacidad de transmitirla es muy eficiente. especialmente en el sector del automóvil. por eso tanto el cable común de cobre. En el caso de fabricas para la construcción de autos se ahorrarían mucho dinero y bastantes cables de cobre .

Fibra Óptica III En este pequeña recopilación de información sobre el tema a desarrollar se hablara sobre la historia y su evolución de lo que es hoy en día el mejor material que usa el ser humano para comunicarse lo más rápido posible la fibra óptica. sus ventajas y desventajas. el impacto que a tenido en la tecnología además se podrá entender 151 . su fabricación. Este documento contiene estudiaremos lo práctico que es este tipo de material.

conseguía transmitir un mensaje en tan sólo 16 minutos. Todos estos apartados se describirán a continuación. inmunidad frente a emisiones electromagnéticas y de radiofrecuencia y seguridad. tamaño y peso reducido. usando luz solar. como bajas pérdidas de señal. un hilo muy fino de material transparente. de modo rudimentario. Esto es parte de lo que es la fibra óptica. vidrio o materiales plásticos. sino en una muy concreta y predefinida se ha conseguido mediante la fibra óptica. ANTECEDENTES El uso de la luz para la codificación de señales no es nuevo.su funcionamiento y de sus variados usos en que se emplea este tipo de material. Claude Chappe diseñó un sistema de telegrafía óptica. Además tiene muchas otras ventajas. los antiguos griegos usaban espejos para transmitir información.El uso de la luz guiada. de modo que no expanda en todas direcciones. ¿Pero que es la fibra óptica? La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos. La gran novedad aportada en nuestra época es el haber conseguido “domar” la luz. que mediante el uso de un código y torres y espejos distribuidos a lo largo de los 200 km que separan Lille y París. pero investiguemos mas afondo lo que es y nos puede ofrecer este material. 152 . por el que se envían pulsos de luz que representan los datos a transmitir. En 1792.

sin embargo. Kao y G. en Long Beach. el único problema era que esta luz perdía hasta el 99% de su intensidad al atravesar distancias de hasta de 9 metros de fibra. apoyándose en los estudios de John Tyndall. se conoce desde hace mucho tiempo. con muchas aplicaciones prácticas que estaban siendo desarrolladas. en 6 Mbit/s. Hondros y Peter Debye en 1910. Solamente en 1950 las fibras ópticas comenzaron a interesar a los investigadores.Uno de los primeros usos de la fibra óptica fue emplear un haz de fibras para la transmisión de imágenes. para que resultara práctica en enlaces de comunicaciones. en su tesis doctoral de 1956. En este invento se usaron unas nuevas fibras forradas con un material de bajo índice de refracción. En 1952. en esta misma época. que se usó en el endoscopio médico. Augustin-Jean Fresnel ya conocía las ecuaciones por las que rige la captura de la luz dentro de una placa de cristal lisa. 153 . y en 1870 presentó sus estudios ante los miembros de la Real Sociedad. dirigiéndolo en una trayectoria recta. en los que demostraron el potencial del cristal como medio eficaz de transmisión a larga distancia. La posibilidad de controlar un rayo de luz.abriéndonos las puertas al descubrimiento de un nuevo mundo: el mundo de la información sin límite de ancho de banda. Hockham. es que las técnicas y los materiales usados no permitían la trasmisión de luz con buen rendimiento. A. El 22 de abril de 1977. En 1820. en la trasmisión de mensajes telefónicos. en Inglaterra. Charles K. El gran problema. A partir de este principio se llevaron a cabo una serie de estudios. General Telephone and Electronics envió la primera transmisión telefónica a través de fibra óptica. Kao. estimó que las máximas pérdidas que debería tener la fibra óptica. se empezaron a utilizar filamentos delgados como el pelo que transportaban luz a distancias cortas.los investigadores Charles K. California. de los laboratorios de Standard Telecommunications. en lugar de electricidad y conductores metálicos. afirmaron que se podía disponer de fibras de una transparencia mayor y propusieron el uso de fibras de vidrio y luz. realizó experimentos que condujeron a la invención de la fibra óptica. eran de 20 dB/km. Su ampliación a lo que entonces se conocía como cables de vidrio fue obra de D. El físico irlandés John Tyndall descubrió que la luz podía viajar dentro de un material (agua). En 1966. Las pérdidas eran tan grandes y no había dispositivos de acoplamiento óptico. el físico Narinder Singh Kapany. curvándose por reflexión interna.

Pero las fibras ópticas con este grado de transparencia no se podían fabricar usando métodos tradicionales. solamente se podía fabricar directamente a partir de componentes de vapor. fue el amplificador óptico inventado por David Payne.000 kilómetros. su cable. y paulatinamente se va extendiendo su uso desde las redes troncales de las operadoras hacia los usuarios finales. la fibras por su peso y tamaño reducido. Hoy en día. Desde entonces. También en 1980. Para la creación de la preforma existen cuatro procesos que son principalmente utilizados. cables similares atravesaron los océanos del mundo. la longitud total de los cables de fibra únicamente en los Estados Unidos alcanzaba 400. las mejores fibras eran tan transparente que una señal podía atravesar 240 kilómetros de fibra antes de debilitarse hasta ser indetectable.000 canales de voz para conversaciones telefónicas simultáneas. Proceso continuo en el tiempo que básicamente se puede describir a través de tres etapas. y por Emmanuel Desurvire en los Laboratorios Bell. de menos de 25 centímetros de diámetro. Tres años después. cuando el sistema comenzó a funcionar. Cuatro años después. Los cables que cruzan el Pacífico también han entrado en funcionamiento. se ha empleado fibra óptica en multitud de enlaces transoceánicos o entre ciudades. El primer enlace transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988. FABRICACION DE LA FIBRA OPTICA Una vez obtenida mediante procesos químicos la materia de la fibra óptica. sin ninguna impureza de metal que absorbiese luz. AT&T presentó a la Comisión Federal de Comunicaciones de los Estados Unidos un proyecto de un sistema de 978 kilómetros que conectaría las principales ciudades del corredor que iba de Boston a Washington. debido a sus mínimas pérdidas de señal y a sus óptimas propiedades de ancho de banda.El amplificador que marcó un antes y un después en el uso de la fibra óptica en conexiones interurbanas. Algunos métodos para la fabricación de la preforma: 154 . el estirado de esta y por último las pruebas y mediciones. A ambos se les concedió la medalla Benjamin Franklin en 1988. hace que sea muy útil en entornos donde el cable de cobre sería impracticable. proporcionaba 80. Además. otro cable transatlántico duplicó la capacidad del primero. En 1980. El gran avance se produjo cuando se dieron cuenta de que el cristal de sílice puro. Pronto. de la Universidad de Southampton. la fabricación de la preforma. la fibra óptica puede ser usada a distancias más largas que el cable de cobre. reduciendo el coste de ellas. se pasa a su fabricación. Para entonces. evitando de esta forma la contaminación que inevitablemnte resultaba del uso convencional de los crisoles de fundición.

Como inconveniente se destaca como uno el de mayor 155 . Quedando convertida la preforma porosa hueca en su interior en el cilindro macizo y transparente.D) permite obtener preformas con mayor diámetro y mayor longitud a la vez que precisa un menor aporte energético. Por un extremo del tubo se introducen los aditivos de dopado. El siguiente paso consiste en el colapsado.C.A. Precisamente es esta temperatura la que garantiza el ablandamiento del cuarzo. que en este último solamente se depositaba el núcleo. donde se somete la preforma porosa a una temperatura comprendida entre los 1. ya que de la proporción de estos aditivos dependerá el perfil final del índice de refracción del núcleo. • V. El tubo es calentado hasta alcanzar una temperatura comprendida entre 1. A continuación en el proceso industrial se instala el tubo en un torno giratorio. quedando de esta forma sintezado el núcleo de la fibra óptica. mientras que en este además del núcleo de la FO se deposita el revestimiento.D Modifield Chemical Vapor Deposition Fue desarrollado originalmente por Corning Glass y modificado por los Laboratorios Bell Telephone para su uso industrial. Las dimensiones de la preforma suelen ser de un metro de longitud útil y de un centímetro de diámetro exterior. Por esta razón debe cuidarse que en la zona de deposición axial o núcleo.800 °C. a partir del extremo del cilindro quedando así conformada la llamada "preforma porosa" . mientras el torno gira. solo que ahora a una temperatura comprendida entre 1.500 °C y 1. comparado con el método anterior (M. depositándose ordenadamente los materiales. mediante el cual se suele describir la preforma. parte fundamental del proceso.V.T).600 °C mediante un quemador de hidrógeno y oxígeno.V.Conforme su tasa de crecimiento se va desprendiendo del cilindro auxiliar de vidrio. convirtiéndose así el tubo en el cilindro macizo que constituye la preforma.• M. muy utilizado en Japón por compañías dedicadas a la fabricación de fibras ópticas.La materia prima que utiliza es la misma que el método M. La operación que resta es el colapso. Al girar el torno el quemador comienza a desplazarse a lo largo del tubo.T.V.400 °C y 1.C.700 °C y 1.C. A partir de un cilindro de vidrio auxiliar que sirve de soporte para la preforma. su diferencia con este radica. se logra igualmente con el continuo desplazamiento del quemador.La deposición de las sucesivas capas se obtienen de las sucesivas pasadas del quemador.700 °C.D Vapor Axial Deposition Su funcionamiento se basa en la técnica desarrollada por la Nippon Telephone and Telegraph (N. se inicia el proceso de creación de esta. lo que se logran a través de la introducción de los parámetros de diseño en el software que sirve de apoyo en el proceso de fabricación. Entre sus ventajas. lográndose así el reblandamiento del cuarzo.D. Utiliza un tubo de cuarzo puro de donde se parte y es depositado en su interior la mezcla de dióxido de silicio y aditivos de dopado en forma de capas concéntricas. se deposite más dióxido de germanio que en la periferia.

Consiste básicamente en la existencia de un horno tubular abierto.D Outside Vapor Deposition Desarrollado por Corning Glass Work. para lograr esto precisamente la constancia y uniformidad en la tensión de tracción y l ausencia de corrientes de convección en el interior del horno. seguido del proceso de deposición interior.3g / min. También es posible la fabricación de fibras de muy baja atenuación y de gran calidad mediante la optimización en el proceso de secado. ESTIRADO DE LA PREFORMA Sea cualquiera que se utilice de las técnicas que permiten la construcción de la preforma es de común a todas el proceso de estirado de esta. lo que representa una tasa de fabricación de FO de 5km / h. o se puedan crear micro fisuras.A continuación se realiza el proceso denominado síntesis de la preforma. creando en estos un estado de plasma. la sofisticación que requiere en equipo necesarios para su realización.Parte de una varilla de substrato cerámica y un quemador. • P.D. En este proceso se ha de cuidar que en la atmósfera interior del horno esté aislada de partículas provenientes del exterior para evitar que la superficie reblandecida de la FO pueda ser contaminada. el cual posibilita las elevadas velocidades de estirado. conformándose así una capa uniforme 156 . • O. es de citar que las tasas de deposición que se alcanzan son del orden de 4.V.En la llama del quemador son introducidos los cloruros vaporosos y esta caldea la varilla. porque los perfiles así obtenidos son lisos y sin estructura anular reconocible. También es aquí donde se aplica a la fibra un material sintético. quedando así sintetizados el núcleo y revestimiento de la preforma. son los factores que lo permiten.D Plasma Chemical Vapor Deposition Es desarrollado por Philips. Este diámetro se ha de mantener constante mientras se aplica una tensión sobre la preforma. con la consecuente e inevitable rotura de la fibra. que consiste en el secado de la misma mediante cloro gaseoso y el correspondiente colapsado de forma análoga a los realizados con el método V.A. comprendidas entre 1m / sg y 3m / sg. en cuyo interior se somete la preforma a una temperatura de 2. Entre las Ventajas.000 °C. que generalmente es un polimerizado viscoso. se caracteriza por la obtención de perfiles lisos sin estructura anular reconocible. logrando así el reblandamiento del cuarzo y quedando fijado el diámetro exterior de la FO.V.C. habiendo sido eliminadas las pérdidas iniciales en el paso de estirado de la preforma. Su principio se basa en la oxidación de los cloruros de silicio y germanio.cognotación.

Esto se realiza habitualmente mediante procesos térmicos o a través de procesos de reacciones químicas mediante el empleo de radiaciones ultravioletas. se refleja en gran parte. la cubierta resistente y el funcionamiento ambiental extendido de la fibra óptica contribuyen a una mayor confiabilidad durante el tiempo de vida de la fibra. FUNCIONAMIENTO Y CARACTERISTICAS Características: La fibra óptica es una guía de ondas dieléctrica que opera a frecuencias ópticas. una mayor vida útil y confiabilidad en lugares húmedos. la luz se va reflejando contra las paredes en ángulos muy abiertos. Uso dual (interior y exterior): La resistencia al agua y emisiones ultravioleta. Las características más destacables de la fibra óptica en la actualidad son: • • • • Cobertura más resistente: La cubierta contiene un 25% más material que las cubiertas convencionales. donde el cable debe enfrentar dobleces agudos y espacios estrechos. Empaquetado de alta densidad: Con el máximo número de fibras en el menor diámetro posible se consigue una más rápida y más fácil instalación. Posteriormente se pasa al endurecimiento de la protección antes descrita quedando así la capa definitiva de polímero elástico. rodeado de una capa de un material similar con un índice de refracción ligeramente menor. algunas de sus características han ido cambiando para mejorarla. cuanto mayor sea la diferencia de índices y mayor el ángulo de incidencia. Se ha llegado a conseguir un cable con 72 fibras de construcción súper densa cuyo diámetro es un 50% menor al de los cables convencionales. A lo largo de toda la creación y desarrollo de la fibra óptica. En el interior de una fibra óptica. se pueden guiar las señales luminosas sin pérdidas por largas distancias. Cuando la luz llega a una superficie que limita con un índice de refracción menor. Cada filamento consta de un núcleo central de plástico o cristal (óxido de silicio y germanio) con un alto índice de refracción.sobre la fibra totalmente libre de burbujas e impurezas. Mayor protección en lugares húmedos: Se combate la intrusión de la humedad en el interior de la fibra con múltiples capas de protección alrededor de ésta. De este modo. se habla entonces de reflexión interna total. lo que proporciona a la fibra. Ventajas: 157 . de tal forma que prácticamente avanza por su centro.

Fibre Channel. De cuatro canales de fibra Gigabit es altamente rentable y garantiza la compatibilidad con versiones anteriores. con un rendimiento escalable. se llegan a obtener velocidades de transmisión totales de 1 Tb/s. Es segura. los bucles compartidos. Libre de Corrosión.Fibre Channel.soluciones Gigabit están en su lugar hoy! En la 4-gig/sec horizonte se perfila como la tecnología SAN dominante para la próxima generación de discos y sistemas de almacenamiento en cinta. Lo más importante es el protocolo de canal de fibra. El peso de un carrete no es ni la décima parte de uno de cable coaxial. • • • • • • 158 . Escalable . Son pocos los agentes que atacan al cristal de silicio.exclusivo punto a punto. y escala topologías de conmutación cumplir los requisitos de aplicación. SCSI.Desde un punto único de enlaces punto a Gigabit integrada a las empresas con cientos de servidores.Fibre Channel proporciona conectividad versátil. Es ligera. está específicamente diseñado para una operación altamente eficiente utilizando el hardware. Congestión de Libre .Fibre Channel de entrega de datos. Múltiples protocolos . Gigabit de ancho de banda Ahora . Confiable . de canal de fibra proporciona un rendimiento inigualable. una norma ANSI de gran alcance. Topologías múltiples . una forma más fiable de las comunicaciones.Fibre Channel ofrece soluciones rentables de almacenamiento y redes. Fibre Channel ha aéreos de transmisión muy poco. permitiendo a los usuarios de preservar existe 2-Gigabit y 1-Gigabit Fibra Canal de las inversiones. ya que no transmite electricidad. Al permanecer el haz de luz confinado en el núcleo. Alta eficiencia .Fibre Channel de crédito. Es inmune totalmente a las interferencias electromagnéticas. económica y prácticamente se reúne el desafío con las siguientes ventajas: • • • • • • • • • Precio de rendimiento Liderazgo . basado en el control de flujo proporciona datos tan rápido como el búfer de destino es capaz de recibirlo. ya que se puede instalar en lugares donde puedan haber sustancias peligrosas o inflamables. TCP / IP. gracias a técnicas de multiplexación por división de frecuencias (X-WDM).Real comportamiento de los precios está directamente relacionada con la eficiencia de la tecnología. fiable la tecnología Fibre Channel. que permiten enviar hasta 100 haces de luz (cada uno con una longitud de onda diferente) a una velocidad de 10 Gb/s cada uno por una misma fibra. Su ancho de banda es muy grande. no es posible acceder a los datos trasmitidos por métodos no destructivos. Soluciones de Liderazgo . Es segura. mantener una empresa con la entrega de información segura. video o datos en bruto pueden tomar ventaja de alto rendimiento.

Esto se consigue si el índice de refracción del núcleo es mayor al índice de refracción del revestimiento. 159 . y también si el ángulo de incidencia es superior al ángulo limite.• Baja Atenuación. en muchos casos. Desventajas: A pesar de las ventajas antes enumeradas. principalmente. Necesidad de usar transmisores y receptores más caros. Funcionamiento: Los principios básicos de su funcionamiento se justifican aplicando las leyes de la óptica geométrica. lo que dificulta las reparaciones en caso de ruptura del cable. Su funcionamiento se basa en transmitir por el núcleo de la fibra un haz de luz. especialmente en el campo. la ley de la refracción (principio de reflexión interna total) y la ley de Snell. Las moléculas de hidrógeno pueden difundirse en las fibras de silicio y producir cambios en la atenuación. Los empalmes entre fibras son difíciles de realizar. Incipiente normativa internacional sobre algunos aspectos referentes a los parámetros de los componentes. la fibra óptica presenta una serie de desventajas frente a otros medios de transmisión. La fibra óptica convencional no puede transmitir potencias elevadas. La fibra óptica alcanza atenuaciones del orden de 0. La necesidad de efectuar. Así mismo. No puede transmitir electricidad para alimentar repetidores intermedios. siendo las más relevantes las siguientes: • • • • • • • La alta fragilidad de las fibras. procesos de conversión eléctrica-óptica. el costo de la fibra sólo se justifica cuando su gran capacidad de ancho de banda y baja atenuación son requeridos. Para bajo ancho de banda puede ser una solución mucho más costosa que el conductor de cobre. La fibra óptica no transmite energía eléctrica. El agua corroe la superficie del vidrio y resulta ser el mecanismo más importante para el envejecimiento de la fibra óptica.15 dB/Km.[1] No existen memorias ópticas. esto limita su aplicación donde el terminal de recepción debe ser energizado desde una línea eléctrica. tal que este no atraviese el revestimiento. calidad de la transmisión y pruebas. La energía debe proveerse por conductores separados. sino que se refleje y se siga propagando.

• • • OM1: Fibra 62. usan láser como emisores. Y según el modo de propagación tendremos dos tipos de fibra óptica: multimodo y monomodo. OM2 u OM3. según el sistema ISO 11801 para clasificación de fibras multimodo según su ancho de banda las fibras pueden ser OM1. Esto supone que no llegan todos a la vez. Monomodo: Una fibra monomodo es una fibra óptica en la que sólo se propaga un modo de luz. Su distancia máxima es de 2 km y usan diodos láser de baja intensidad. Multimodo: Una fibra multimodo es aquella en la que los haces de luz pueden circular por más de un modo o camino.5/125 µm. menores a 1 km. tiene alta dispersión modal. es simple de diseñar y económico. el índice de refracción no es constante. Además. soporta hasta Gigabit Ethernet (1 Gbit/s).3 a 10 micrones) que sólo permite un modo de propagación. Una fibra multimodo puede tener más de mil modos de propagación de luz. Dependiendo el tipo de índice de refracción del núcleo. pero del mismo orden de magnitud. Índice gradual: mientras en este tipo. soporta hasta Gigabit Ethernet (1 Gbit/s). soporta hasta 10 Gigabit Ethernet(300 m). Se logra reduciendo el diámetro del núcleo de la fibra hasta un tamaño (8. usan LED como emisores OM3: Fibra 50/125 µm. Las fibras multimodo se usan comúnmente en aplicaciones de corta distancia. tenemos dos tipos de fibra multimodo: • • Índice escalonado: en este tipo de fibra. usan LED como emisores OM2: Fibra 50/125 µm. que el revestimiento. Su transmisión es 160 . el núcleo tiene un índice de refracción constante en toda la sección cilíndrica. El núcleo de una fibra multimodo tiene un índice de refracción superior.TIPOS DE FIBRA OPTICA Las diferentes trayectorias que puede seguir un haz de luz en el interior de una fibra se denominan modos de propagación. tiene menor dispersión modal y el núcleo se constituye de distintos materiales.

mediante un láser de alta intensidad) y transmitir elevadas tasas de información (decenas de Gb/s) Por su diseño: • Cables de estructura holgada: Es un cable empleado tanto para exteriores como para interiores que consta de varios tubos de fibra rodeando un miembro central de refuerzo y provisto de una cubierta protectora. el tipo de emisor del haz de luz. etc Conectores: Estos elementos se encargan de conectar las líneas de fibra a un elemento.paralela al eje de la fibra. Componentes de la fibra óptica Dentro de los componentes que se usan en la fibra óptica caben destacar los siguientes: los conectores. • Cables de estructura ajustada: Es un cable diseñado para instalaciones en el interior de los edificios. es más flexible y con un radio de curvatura más pequeño que el que tienen los cables de estructura holgada. Esta protección plástica además de servir como protección adicional frente al entorno. LC y MT-Array que se utilizan en transmisiones de alta densidad de datos. que se usa en la transmisión de datos y en las telecomunicaciones. A diferencia de las fibras multimodo. ya puede ser un transmisor o un receptor. Los tipos de conectores disponibles son muy variados. 161 . los conversores de luz. hasta alcanzar un diámetro de 900 µm rodeando al recubrimiento de 250 µm de la fibra óptica. Cada tubo de fibra. todo ello cubierto de una protección exterior. de dos a tres milímetros de diámetro. lleva varias fibras ópticas que descansan holgadamente en él. también provee un soporte físico que serviría para reducir su coste de instalación al permitir reducir las bandejas de empalmes. se usa para redes de fibra óptica. Contiene varias fibras con protección secundaria que rodean un miembro central de tracción. Los tubos pueden ser huecos o estar llenos de un gel hidrófugo que actúa como protector antihumedad impidiendo que el agua entre en la fibra. • • FDDI. las fibras monomodo permiten alcanzar grandes distancias (hasta 300 km máximo. El tubo holgado aísla la fibra de las fuerzas mecánicas exteriores que se ejerzan sobre el cable. entre los que podemos encontrar se hallan los siguientes: • FC. Cada fibra tiene una protección plástica extrusionada directamente sobre ella.

contra un átomo para que sea capaz de arrancarle otro electrón. • Detectores APD: El mecanismo de estos detectores consiste en lanzar un electrón a gran velocidad (con la energía suficiente). Utilizan una corriente de 50 a 100 mA. en la generación de pares electrón-hueco a partir de los fotones. la cual mejora la eficacia del detector. estos emisores pueden ser de dos tipos: • • LEDs. pero su uso es fácil y su tiempo de vida es muy grande. Requieren alta tensión de alimentación (200-300V). ST o BFOC se usa en redes de edificios y en sistemas de seguridad. Se fundamenta en el fenómeno opuesto a la recombinación. son muy rápidos. su velocidad es lenta. • Detectores PIN: Su nombre viene de que se componen de una unión P-N y entre esa unión se intercala una nueva zona de material intrínseco (I). Emisores del haz de luz: Estos dispositivos se encargan de emitir el haz de luz que permite la transmisión de datos. Hay dos tipos de detectores: los fotodiodos PIN y los de avalancha APD. es decir. además de ser económicos. El tipo más sencillo de detector corresponde a una unión semiconductora P-N. pero por el contrario su uso es difícil. esta corriente es proporcional a la potencia recibida. Se limitan a obtener una corriente a partir de la luz modulada incidente. 162 .• • SC y SC-Dúplex se utilizan para la transmisión de datos. Este tipo de emisor usa una corriente de 5 a 40 mA. solo se puede usar en fibras multimodo. a la forma de onda de la señal moduladora. y por tanto. Estos detectores se pueden clasificar en tres tipos: • de silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90% trabajando en primera ventana. su tiempo de vida es largo pero menor que el de los LEDs y también son mucho más costosos. Conversores de luz-corriente eléctrica: Este tipo de conversores convierten las señales ópticas que proceden de la fibra en señales eléctricas. se puede usar con los dos tipos de fibra. monomodo y multimodo. Se utiliza principalmente en sistemas que permiten una fácil discriminación entre posibles niveles de luz y en distancias cortas. Lasers.

Hoy en día. Sin embargo si el requerimiento de capacidad de información es bajo la fibra óptica puede ser de mayor costo. Costo y mantenimiento El costo de los cables de fibra óptica y la tecnología asociada con su instalación ha caído drásticamente en los últimos años. el costo de construcción de una planta de fibra óptica es comparable con una planta de cobre. El propósito del siguiente artículo es describir el mecanismo de acción.• • de germanio: aptos para trabajar con longitudes de onda comprendidas entre 1000 y 1300 nm y con un rendimiento del 70%. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica. derriba la mayor limitación del ciberespacio: su exasperante lentitud. Además. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC. un módem y algunos programas. textos y todos los demás elementos que viajan de un lado a otro en la Red. gráficas. Por tanto dependiendo de los requerimientos de comunicación la fibra óptica puede constituir el mejor sistema. Esto se debe a que las líneas telefónicas. sino también una gran dosis de paciencia. siendo innecesarios y/o simplificadas la ecualización y compensación de las variaciones en tales propiedades. El ciberespacio es un mundo lento hasta el desespero. Las señales se pueden transmitir a través de zonas eléctricamente ruidosas con muy bajo índice de error y sin interferencias eléctricas. de compuestos de los grupos III y V. Para navegar por la red mundial de redes. los costos de mantenimiento de una planta de fibra óptica son muy inferiores a los de una planta de cobre. Internet. no sólo se necesitan un computador. Se mantiene estable entre -40 y 200 ºC . APLICACIONES DE LA FIBRA ÓPTICA Internet: El servicio de conexión a Internet por fibra óptica. no fueron creadas para transportar videos. 163 . Las características de transmisión son prácticamente inalterables debido a los cambios de temperatura. las ventajas y sus desventajas. el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet.

Los amplificadores de fibra óptica recientemente desarrollados pueden aumentar todavía más esta distancia. y suelen usarse en oficinas o campus universitarios. Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local. debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia. frente a aproximadamente 1. impensable en el sistema convencional.5 km en los sistemas eléctricos. En la actualidad. estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. pero conectan entre sí ordenadores separados por distancias mayores. Al contrario que las comunicaciones de larga distancia. que proporcionan conexiones transcontinentales y transoceánicas. conforme al funcionamiento. Red de área local o LAN. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. a la capacidad de transmisión. En las redes de comunicaciones se emplean sistemas de láser con fibra óptica. situados en distintos lugares de un país o en diferentes países. Hoy funcionan muchas redes de fibra para comunicación a larga distancia. Otros recursos informáticos conectados son las redes de área amplia (WAN. así como al alcance 164 . conjunto de ordenadores que pueden compartir datos. Las computadoras de una red de área local (LAN. Las redes de comunicación públicas están divididas en diferentes niveles. Redes: La fibra óptica se emplea cada vez más en la comunicación. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. Las WAN son similares a las LAN. aplicaciones y recursos (por ejemplo impresoras). pero no resultan adecuadas para emitir y recibir los picos de datos de corta duración empleados por la mayoría de las aplicaciones informáticas.000 0 33. en el que la mayoría de usuarios se conecta a 28. los repetidores de fibra óptica están separados entre sí unos 100 km.La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps.600 bps. Una ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar un repetidor para recuperar su intensidad. Local Area Network) están separadas por distancias de hasta unos pocos kilómetros. Una LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. Wide Area Network) o las centralitas particulares (PBX). Las PBX proporcionan conexiones informáticas continuas para la transferencia de datos especializados como transmisiones telefónicas. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra.

Con el BIGFON (red urbana integrada de telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias experiencias en este aspecto. hacia el centro la red urbana y finalmente las líneas de abonado. se dispone de los sistemas de transmisión por fibra óptica para los niveles de la red de telecomunicaciones públicas en una amplia aplicación.que definen. También se han desarrollado fibras que transmiten rayos láser de alta potencia para cortar y taladrar materiales. contrariamente para sistemas de la red de abonado (línea de abonado). cables con fibras monomodo ó multimodo. También pueden emplearse para transmitir imágenes. la videotelefonía. que van desde termómetros hasta giroscopios. como la cavidad perforada por la turbina de un dentista. si está aproximándose desde el exterior hacia el interior de una gran ciudad. Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado. se tiene primeramente la red interurbana y red provisional. Precisamente con la implantación de los servicios en banda ancha como la videoconferencia. La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares que serían difíciles de iluminar de otro modo. las ondas de sonido y la deformación. Otras aplicaciones Las fibras ópticas también se emplean en una amplia variedad de sensores. además del calor y el movimiento. Su potencial de aplicación en este campo casi no tiene límites. porque la luz transmitida a través de las fibras es sensible a numerosos cambios ambientales. los servicios de banda ancha posteriormente se ampliarán con los servicios de distribución de radio y de televisión en una red de telecomunicaciones integrada en banda ancha (IBFN). Cada punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro extremo. La transmisión de imágenes se utiliza mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con 165 . Para la conexión de un teléfono es completamente suficiente con los conductores de cobre existentes. a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural). en este caso se utilizan haces de varios miles de fibras muy finas. con lo que se reconstruye la imagen. Telefonía: Con motivo de la normalización de interfaces existentes. es decir. la fibra óptica se hará imprescindible para el abonado. Por ejemplo. etc. impreciso o incluso peligroso. Las fibras pueden resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un cable convencional resultara inútil. Según la estrategia elaborada. hay ante todo una serie de consideraciones. situadas exactamente una al lado de la otra y ópticamente pulidas en sus extremos. entre ellos la presión. que puede ser observada a través de una lupa.

4 40 166 .5 0.láser. en sistemas de reproducción mediante facsímil y fotocomposición. IMAGENES COMPARACIÓN CON OTROS MEDIOS DE COMUNICACIÓN Características Longitud de la Bobina (mts) Peso (kgs/km) Diámetro (mm) Radio de Curvatura (cms) Distancia entre repetidores (Kms) Atenuación (dB / km) para un Sistema de 56 Mbps Fibra Óptica 2000 190 14 14 40 Coaxial 230 7900 58 55 1. en gráficos de ordenador o computadora y en muchas otras aplicaciones.

Cable submarino de fibra óptica. 167 .Un ramo de fibras ópticas.

Tipos de fibra óptica. Núcleo y revestimiento de la fibra óptica 168 .

Tipos conectores de la fibra óptica. 169 . de CONCLUSIÓN Este nueva generación de transmisores de comunicación esta saliendo ya muy avanzada aunque ya desde tiempo atrás ya el hombre era capas de controlar los emisiones de luz para comunicarse pero era demasiado lenta.

un módem y algunos programas. Internet.Con el tiempo esta técnica se ha ido mejorando y entre más pasa el tiempo esto irá mejorando. en cambio la fibra óptica es mucho mas efectiva y no sufre de estática o interferencia como otras mas ventajas que posee este tipo de material. sino también una gran dosis de 170 . no sólo se necesitan un computador. Por lo que la fibra óptica a superado por completo al cable tradicional ya que este es deficiente. Fibra Óptica IV Para navegar por la red mundial de redes.

se producían ya cantidades importantes de pedidos de este material. El ciberespacio es un mundo lento hasta el desespero. gráficas. conocido hoy como la fibra óptica. dos años después. se descubrió una nueva utilización de la luz. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica. a la que se denominó rayo láser. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. en 1959. textos y todos los demás elementos que viajan de un lado a otro en la Red. Antes. Fue entonces cuando los científicos y técnicos especializados en óptica dirigieron sus esfuerzos a la producción de un ducto o canal. En 1977. Sin embargo esta utilización del láser era muy limitada debido a que no existían los conductos y canales adecuados para hacer viajar las ondaselectromagnéticas provocadas por la lluvia de fotones originados en la fuente denominada láser. se instaló un sistema de prueba en Inglaterra. que fue aplicado a las telecomunicaciones con el fin de que los mensajes se transmitieran a velocidades inusitadas y con amplia cobertura. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC. En 1966 surgió la propuesta de utilizar una guía óptica para la comunicación. el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet.paciencia. Esta forma de usar la luz como portadora de información se puede explicar de la siguiente manera: Se trata en realidad de una onda electromagnética de la misma 171 . no fueron creadas para transportar vídeos. ORIGEN Y EVOLUCION La Historia de la comunicación por la fibra óptica es relativamente corta. Esto se debe a que las líneas telefónicas. como derivación de los estudios en física enfocados a la óptica.

Ambos han de ser miniaturizados para componentes de sistemas fibro-ópticos. El vidrio ordinario tiene un haz luminoso de pocos metros. la fibra óptica debe transmitir señales luminosas detestables por muchos kilómetros. cuando la luz pasa de propagarse por un cierto medio a propagarse 172 . sin embargo. es conveniente resaltar ciertos aspectos básicos de óptica. lo que ha exigido considerable labor de investigación y desarrollo. Los láseres generan luz "coherente" intensa que permanece en un camino sumamente estrecho. Se usaron láseres o diodos emisores de luz como fuente luminosa en los cables de fibras ópticas. que absorbían luz que dificultaba el proceso. Se han desarrollado nuevos vidrios muy puros con transparencias mucho mayores que la del vidrio ordinario.naturaleza que las ondas de radio. Este gran avance dio ímpetu a la industria de fibras ópticas. El concepto de las comunicaciones por ondas luminosas ha sido conocido por muchos años. QUE ES LA FIBRA OPTICA Antes de explicar directamente que es la fibra óptica. Los diodos emiten luz "incoherente" que ni es fuerte ni concentrada. El problema técnico que se había de resolver para el avance de la fibra óptica residía en las fibras mismas. Lo que se debe usar depende de los requisitos técnicos para diseñar el circuito de fibras ópticas dado. con la única diferencia que la longitud de las ondas es del orden de micrómetros en lugar de metros o centímetros. Estos vidrios empezaron a producirse a principios de los setenta. cuando se propaga por cualquier otro medio. no fue hasta mediados de los años setenta que se publicaron los resultados del trabajoteórico. La luz se mueve a la velocidad de la luz en el vacío. Así. Estos indicaban que era posible confiar un haz luminoso en una fibra transparente flexible y proveer así un análogo óptico de la señalización por alambres electrónicamente. la velocidad es menor. Para la comunicación práctica. Sin embargo.

cambia de direcciónde propagación. De forma que se consigue guiar la luz por el cable. de hecho son materiales ópticos mucho más ligeros (fibra óptica. se le asigna un Índice de Refracción "n". y además los cables son mucho más finos. del espesor de un pelo (entre 10 y 300 173 . tenemos un material envolvente con índice n y un material interior con índice n'. La Fibra Óptica consiste por tanto. si el haz de luz incide con un ángulo mayor que un cierto ángulo límite (que se determina con la anterior ecuación) el haz siempre se reflejara en la superficie de separación entre ambos medios. de modo que pueden ir muchos más cables en el espacio donde antes solo iba un cable de cobre. es igual al índice del segundo medio por el seno del ángulo con el que sale propagada la luz en el segundo medio. sufriendo además efectos de reflexión (la luz rebota en el cambio de medio. ¿Y esto para que sirve?. por el seno del ángulo con el que incide la luz en el segundo medio. CONCEPTO DE FIBRA OPTICA Los circuitos de fibra óptica son filamentos de vidrio (compuestos de cristales naturales) o plástico(cristales artificiales).por otro determinado medio. además de cambiar el modulo de su velocidad. Como se ve en el dibujo. De esta forma se puede guiar la luz de forma controlada tal y como se ve en el dibujo de abajo (que representa de forma esquemática como es la fibra óptica). La ley más importante que voy a utilizar en este artículo es la siguiente para la refracción: Esta fórmula nos dice que el índice de refracción del primer medio. su velocidad cambia. lo dice el nombre). Esto se ve de mejor forma en el dibujo que aparece a nuestra derecha. lo único que nos interesa aquí de esta ley es que dados dos medios con índices n y n'. como la luz reflejada en los cristales) y de refracción (la luz. un número deducido de dividir la velocidad de la luz en el vacío entre la velocidad de la luz en dicho medio. la dirección de donde nos viene la luz en la parte que está al aire no es la misma que la que está metida en el agua). en un cable de este tipo en el que los materialesson mucho más económicos que los convencionales de cobre en telefonía. Los efectos de reflexión y refracción que se dan en la frontera entre dos medios dependen de sus Índices de Refracción. por eso vemos una cuchara como doblada cuando está en un vaso de agua. Dependiendo de la velocidad con que se propague la luz en un medio o material.

A esto le podemos añadir que en la fibra óptica la señal no se atenúa tanto como en el cobre. El principio en que se basa la transmisión de luz por la fibra es la reflexión interna total. Concluyo pues diciendo que. las reflexiones se producen en la superficie que separa la fibra de vidrio y el recubrimiento. 174 . Para evitar pérdidas por dispersión de luz debida a impurezas de la superficie de la fibra. ya que en las fibras no se pierde información por refracción o dispersión de luz consiguiéndose así buenos rendimientos. la luz que viaja por el centro o núcleo de la fibra incide sobre la superficie externa con un ángulo mayor que el ángulo crítico. lo que en telefonía se llama unir o multiplexar diferentes conversaciones eléctricas. tanto en pequeños ambientes autónomos (tales como sistemas de procesamiento de datosde aviones). la Fibra Óptica consiste en una guía de luz con materiales mucho mejores que lo anterior en varios aspectos. como en grandes redes geográficas (como los sistemas de largas líneas urbanas mantenidos por compañías telefónicas). Así. donde quiera que el filamento vaya (incluyendo curvas y esquinas) sin interrupción. en el cobre. Las fibras ópticas pueden ahora usarse como los alambres de cobre convencionales. la luz puede transmitirse a larga distancia reflejándose miles de veces. También se puede usar la fibra óptica para transmitir luz directamente y otro tipo de ventajas en las que no entraré en detalle. Cada etapa de fabricación esta ilustrada por una corta secuencia filmada. el núcleo de la fibra óptica está recubierto por una capa de vidrio con un índice de refracción mucho menor. se pueden emitir a la vez por el cable varias señales diferentes con distintas frecuencias para distinguirlas. de forma que toda la luz se refleja sin pérdidas hacia el interior de la fibra. las señales se ven atenuadas por la resistenciadel material a la propagación de las ondas electromagnéticas de forma mayor. Llevan mensajes en forma de haces de luz que realmente pasan a través de ellos de un extremo a otro. Además. sin embargo.micrones). Fabricación de la Fibra Óptica Las imágenesaquí muestran como se fabrica la fibra monomodo.

Se calienta el todo para asegurar la homogeneidad de la barra de vidrio. empalme. y otros riesgos del entorno. En resumen. Consiste en una o varias hebras delgadas de vidrio o de plástico con diámetro de 50 a 125 micras. amplificador. el núcleo es la parte más interna de la fibra y es la que guía la luz. los roedores. cuya misión consiste en transformar la señal luminosa en energía electromagnética.La primera etapa consiste en el ensamblado de un tubo y de una barra de vidrio cilíndrico montados concéntricamente. corrector óptico. línea de fibra óptica (primer tramo ). Además su pequeño 175 . el aplastamiento. similar a la señal original. con unos kilogramos de vidrio pueden fabricarse aproximadamente 43 kilómetros de fibra óptica. en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor. ¿ De qué están hechas las Fibras Ópticas ? La mayoría de las fibras ópticas se hacen de arena o sílice. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica. se puede decir que este proceso de comunicación. Una vez que es transmitida la señal luminosa por las minúsculas fibras. por ello se le considera el componente activo de este proceso. El sistema básico de transmisión se compone en este orden. línea de fibra óptica (segundo tramo). fuente de luz. amplificador y señal de salida. receptor. la fibra óptica funciona como medio de transportación de la señal luminosa. el revestimiento es la parte que rodea y protege al núcleo. corrector óptico. debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. de señal de entrada. Los dos constituyentes esenciales de las fibras ópticas son el núcleo y el revestimiento. El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda de plástico u otros materiales que lo resguardan contra la humedad. materia prima abundante en comparación con el cobre. ¿ Cómo funciona la Fibra Óptica ? En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa. generado por el transmisor de LED’S (diodos emisores de luz) y láser. Una barra de vidrio de una longitud de 1 m y de un diámetro de 10 cm permite obtener por estiramiento una fibra monomodo de una longitud de alrededor de 150 km.

En consecuencia. la cantidad de luz emitida es proporcional a la corriente de excitación. longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas. La guía de fibra es un vidrio ultra puro o un cable plástico. Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales. receptor y guía de fibra. ¿Cuáles son los dispositivos implícitos en este proceso? Los bloques principales de un enlace de comunicaciones de fibra óptica son: transmisor. El receptor incluye un dispositivo conector detector de fibra a luz.tamaño. El transmisor consiste de una interfase analógica o digital. una cubierta y una capa protectora. Ambos convierten la energía de luz en corriente. una fuente de luz y un adaptador de fuente de luz a fibra. un foto detector. se requiere un conversor corriente a voltaje que transforme los cambios en la corriente del detector a cambios de voltaje en la señal de salida. El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de avalancha). La fibra óptica consiste de un núcleo de fibra de vidrio o plástico. COMPONENTES Y TIPOS DE FIBRA ÓPTICA Componentes de la Fibra Óptica 176 . por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de entrada en una corriente que se usa para dirigir la fuente de luz. El conversor de voltaje a corriente sirve como interfase eléctrica entre los circuitos de entrada y la fuente de luz. El dispositivo de acoplamiento del detector de fibra a luz también es un acoplador mecánico. un conversor de voltaje a corriente. La conexión de fuente a fibra es una interfase mecánica cuya función es acoplar la fuente de luz al cable. un conversor de corriente a voltaje un amplificador de voltaje y una interfase analógica o digital En un transmisor de fibra óptica la fuente de luz se puede modular por una señal análoga o digital. La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección láser ILD. su luminosidad.

Tiene una banda de paso del orden de los 100 GHz/km. Fibra Multimodo de índice escalonado: 177 . Su principio se basa en que el índice de refracción en el interior del núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. pero también es la más compleja de implantar. esta es la fibra que ofrece la mayor capacidad de transportede información. La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con aditivos que confinan las ondas ópticas en el núcleo. entonces se habla de fibras monomodo de índice escalonado. único). Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través del núcleo de la fibra.5 um para la fibra multimodo y 9um para la fibra monomodo. Multimodo de índice de gradiente gradual 50/125 m m. de unos 5 a 8 m m. El revestimiento de protección: por lo general esta fabricado en plástico y asegura la protección mecánica de la fibra. Diámetro: 50 o 62. Tipos de Fibra Óptica: Fibra Monomodo Potencialmente. cuarzo fundido o plástico . pero se pueden encontrar otros tipos de fibras: Multimodo de índice escalonado 100/140 mm. Los rayos luminosos se encuentran enfocados hacia el eje de la fibra. Los mayores flujos se consiguen con esta fibra.El Núcleo: En sílice.5/125 m (diámetro del núcleo/diámetro de la cubierta) está normalizado. como se puede ver en el dibujo. ya que sus pequeñas dimensiones implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal. La fibra multimodo de índice de gradiente gradual de tamaño 62. o camino del haz luminoso. Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de onda de las señales ópticas que transmiten. por lo que se ha ganado el nombre de "monomodo" (modo de propagación. Si el núcleo está constituido de un material cuyo índice de refracción es muy diferente al de la cubierta. Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las fibras monomodo. El dibujo muestraque sólo pueden ser transmitidos los rayos que tienen una trayectoria que sigue el eje de la fibra. Fibra Multimodo de Índice Gradiante Gradual: Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta los 500MHz por kilómetro.en el cual se propagan las ondas ópticas. es decir.

con una atenuación de 30 dB/km. Para el caso de conectorización se encuentran distintos tipos de conectores dependiendo el uso y l normativa mundial usada y sus características. El paso desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice. ST conector de Fibra para Monomodo o Multimodo con uso habitual en Redes de Datos y equipos de Networking locales en forma Multimodo. el núcleo está constituido por un material uniforme cuyo índice de refracción es claramente superior al de la cubierta que lo rodea. 2. Pueden ser provistos también acopladores de tipo "Híbridos". Para ver el gráfico seleccione la opción "Descargar" del menú superior Para la terminación de una fibra óptica es necesario utilizar conectores o empalmar Pigtails (cables armados con conector) por medio de fusión.5 y adaptadores (Tipo ST) instalados pueden seguir siendo utilizados en plataformas actuales y futuras. Esto ayuda a mantener la polaridad correcta en el sistema de cableado y permite al adaptador a implementar polaridad inversa acertada de pares entre los conectores. 178 . Identificación: Conectores y adaptadores Multimodo se representan por el color marfil Conectores y adaptadores Monomodo se representan por el color azul. uno de cada lado. condicionado a la coincidencia del perfil del pulido.. Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. que permiten acoplar dos diseños distintos de conector.. ¿ Qué tipo de conectores usa ? Con la Fibra Óptica se puede usar Acopladores y Conectores: Acopladores: Un acoplador es básicamente la transición mecánica necesaria para poderdar continuidad al paso de luz del extremo conectorizado de un cable de fibra óptica a otro. Conectores: 1.Se recomienda el conector 568SC pues este mantiene la polaridad. con una atenuación de 100 dB/km. de ahí su nombre de índice escalonado.Sistemas con conectores BFOC/2. En estas fibras. La posición correspondiente a los dos conectores del 568SC en su adaptador. se denominan como A y B.Las fibras multimodo de índice escalonado están fabricadas a base de vidrio. o plástico.

FC conector de Fibra Óptica para Monomodo o Multimodo con uso habitual en telefonía y CATV en formato Monomodo y Monomodo Angular. La cubierta contiene 25% más material que las cubiertas convencionales. Mayor protección en lugares húmedos: En cables de tubo holgado rellenos de gel. y funcionamiento ambiental extendida. El agua puede acumularse en pequeñas piscinas en los vacíos. Uso Dual (interior y exterior): La resistencia al agua. hongos y emisiones ultra violeta. El resultado es una mayor vida útil. el gel dentro de la cubierta se asienta dejando canales que permitan que el agua migre hacia los puntos de terminación.Para ver el gráfico seleccione la opción "Descargar" del menú superior SC conector de Fibra óptica para Monomodo y Multimodo con uso habitual en telefonía en formato monomodo. contribuyen a una mayor confiabilidad durante el tiempo de vida. combaten la intrusión de humedad con múltiples capas de protección alrededor de la fibra óptica. fibras ópticas probadas bajo 100 kpsi. buffer de 900 µm. la cubierta resistente. la vida útil es recortada por los efectos dañinos del agua en contacto. resultando en que la superficie interna de la cubierta del cable tenga arista helicoidales que se aseguran con los subcables. y cuando la delicada fibra óptica es expuesta. mayor confiabilidad especialmente ambientes húmedos. CARACTERÍSTICAS DE LA FIBRA ÓPTICA Características Generales: Coberturas más resistentes: La cubierta especial es extruida a alta presión directamente sobre el mismo núcleo del cable. Protección Anti-inflamable: 179 .

menor será la capacidad de transmisión de información de esa fibra. Un cable de 10 fibras tiene un diámetro aproximado de 8 o 10 mm. por la cual se efectúa la propagación. totalmente necesaria para que se produzca el mecanismo de propagación. Características Técnicas: La fibra es un medio de transmisión de información analógica o digital. Estos materiales no pueden cumplir con los requerimientos de las normasde instalación.O. redundando en su facilidad de instalación. La F. Las ondas electromagnéticas viajan en el espacio a la velocidad de la luz. y proporciona la misma o más información que un coaxial de 10 tubos. y que se denomina envoltura o revestimiento. Se ha llegado a conseguir un cable con 72 fibras de construcción súper densa cuyo diámetro es un 50% menor al de los cables convencionales. denominada núcleo y de una zona externa al núcleo y coaxial con él. Básicamente. b) De las propiedades de los materiales empleados en su elaboración. El sílice tiene un amplio margen de funcionamiento en lo referente a temperatura. El peso del cable de fibras ópticas es muy inferior al de los cables metálicos. Empaquetado de alta densidad: Con el máximo número de fibras en el menor diámetro posible se consigue una más rápida y más fácil instalación. presentan un riesgo adicional. Presenta dimensiones más reducidas que los medios preexistentes. pues funde a 600C. La capacidad de transmisión de información que tiene una fibra óptica depende de tres características fundamentales: a) Del diseño geométrico de la fibra. la fibra óptica está compuesta por una región cilíndrica. y pueden además crear un reto costoso y difícil en la restauración después de un incendio. Cuanto mayor sea esta anchura. donde el cable debe enfrentar dobleces agudos y espacios estrechos. Con los nuevos avances en este campo y en el diseño de estos cables se eliminan estos riesgos y se cumple con las normas de instalación. presenta un funcionamiento uniforme desde -550 C a +125C sin degradación de sus características. (diseño óptico) c) De la anchura espectral de la fuente de luz utilizada.Los nuevos avances en protección anti-inflamable hace que disminuya el riesgo que suponen las instalaciones antiguas de Fibra Óptica que contenían cubiertas de material inflamable y relleno de gel que también es inflamable. 180 .

VENTAJAS Y DESVENTAJAS DE LA FIBRA ÓPTICA 181 . Tales diferencias se deben a diseños calculados a veces para mejorar otras propiedades. Para alcanzar tal objetivohay que tener en cuenta su sensibilidad a la curvatura y microcurvatura. Es necesario disponer de cubiertas y protecciones de calidad capaces de proteger a la fibra. la resistencia mecánica y las características de envejecimiento. La investigación sobre componentes optoelectrónicos y fibras ópticas han traído consigo un sensible aumento de la calidad de funcionamiento de los sistemas. como la resistencia mecánica. Otro objetivo es minimizar las pérdidas adicionales por cableado y las variaciones de la atenuación con la temperatura. como elemento resistente dispuesto en el interior de un cable formado por agregación de varias de ellas.Características Mecánicas: La F. la calidad de empalme. Enrollamiento: existe siempre un límite para el ángulo de curvatura pero. Por otra parte. en la mayoría de los casos las instalaciones se encuentran a la intemperie o en ambientes agresivos que pueden afectar al núcleo. Compresión: es el esfuerzo transversal. Las microcurvaturas y tensiones se determinan por medio de los ensayos de: Tensión: cuando se estira o contrae el cable se pueden causar fuerzas que rebasen el porcentaje de elasticidad de la fibra óptica y se rompa o formen microcurvaturas. no tiene características adecuadas de tracción que permitan su utilización directa. el coeficiente de relleno (número de fibras por mm2) o el costo de producción. Limitaciones Térmicas: estas limitaciones difieren en alto grado según se trate de fibras realizadas a partir del vidrio o a partir de materiales sintéticos. Torsión:es el esfuerzo lateral y de tracción. la existencia del forro impide que se sobrepase. Impacto: se debe principalmente a las protecciones del cable óptico.O.

Carencia de señales eléctricas en la fibra. Fácil de instalar. Video y sonido en tiempo real. por lo que la transmisión es también segura y no puede ser perturbada. por lo que no pueden dar sacudidas ni otros peligros. El peso del cable de fibras ópticas es muy inferior al de los cables metálicos. Son convenientes para trabajar en ambientes explosivos. El costo es alto en la conexión de fibra óptica. las empresas no cobran por tiempo de utilización sino por cantidad de información transferida al computador. que se mide en megabytes. Las fibras no pierden luz. capaz de llevar un gran número de señales. Disponibilidad limitada de conectores. DESVENTAJAS Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica. como ocurre cuando un alambre telefónico pierde parte de su señal a otra. Dificultad de reparar un cable de fibras roto en el campo. Compatibilidad con la tecnología digital. Es inmune al ruido y las interferencias. Presenta dimensiones más reducidas que los medios preexistentes. Fragilidad de las fibras. APLICACIONES Internet 182 . El costo de instalación es elevado. La materia prima para fabricarla es abundante en la naturaleza. sin congestiones.VENTAJAS La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps. Acceso ilimitado y continuo las 24 horas del día.

Local Area Network) están separadas por distancias de hasta unos pocos kilómetros. aplicaciones y recursos (por ejemplo impresoras). un módem y algunos programas. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. Redes La fibra óptica se emplea cada vez más en la comunicación.000 0 33. Una 183 . Internet. Red de área local o LAN. Esto se debe a que las líneas telefónicas. Hoy funcionan muchas redes de fibra para comunicación a larga distancia. sino también una gran dosis de paciencia. Para navegar por la red mundial de redes. frente a aproximadamente 1. textos y todos los demás elementos que viajan de un lado a otro en la Red. los repetidores de fibra óptica están separados entre sí unos 100 km. Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local.5 km en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente desarrollados pueden aumentar todavía más esta distancia. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC. en el que la mayoría de usuarios se conecta a 28. impensable en el sistema convencional. conjunto de ordenadores que pueden compartir datos. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. derriba la mayor limitación del ciberespacio: su exasperante lentitud. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra. no sólo se necesitan un computador. La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps. estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia. no fueron creadas para transportar videos. Una ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar un repetidor para recuperar su intensidad. las ventajas y sus desventajas.El servicio de conexión a Internet por fibra óptica. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica. El propósito del siguiente artículo es describir el mecanismo de acción. gráficas.600 bps. Al contrario que las comunicaciones de larga distancia. En la actualidad. El ciberespacio es un mundo lento hasta el desespero. el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet. En las redes de comunicaciones se emplean sistemas de láser con fibra óptica. Las computadoras de una red de área local (LAN. y suelen usarse en oficinas o campus universitarios. que proporcionan conexiones transcontinentales y transoceánicas.

Por ejemplo. es decir. Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado. a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural). la videotelefonía. Las redes de comunicación públicas están divididas en diferentes niveles. se tiene primeramente la red interurbana y red provicional. la fibra óptica se hará imprescindible para el abonado. los servicios de banda ancha posteriormente se ampliarán con los servicios de distribuciónde radio y de televisión en una red de telecomunicaciones integrada en banda ancha (IBFN). porque la luz transmitida a través de las fibras es 184 . Telefonía Con motivo de la normalización de interfaces existentes. Las PBX proporcionan conexiones informáticas continuas para la transferencia de datos especializados como transmisiones telefónicas. si está aproximándose desde el exterior hacia el interior de una gran ciudad. Otros recursos informáticos conectados son las redes de área amplia (WAN. hacia el centro la red urbana y finalmente las líneas de abonado. a la capacidad de transmisión. Otras aplicaciones Las fibras ópticas también se emplean en una amplia variedad de sensores. Las WAN son similares a las LAN. Según la estrategia elaborada. pero conectan entre sí ordenadores separados por distancias mayores. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. se dispone de los sistemas de transmisión por fibra óptica para los niveles de la red de telecomunicaciones públicas en una amplia aplicación. situados en distintos lugares de un país o en diferentes países. contrariamente para sistemas de la red de abonado (línea de abonado). que van desde termómetros hasta giroscopios. Para la conexión de un teléfono es completamente suficiente con los conductores de cobre existentes. pero no resultan adecuadas para emitir y recibir los picos de datos de corta duración empleados por la mayoría de las aplicaciones informáticas. Precisamente con la implantación de los servicios en banda ancha como la videoconferencia. etc. Su potencial de aplicación en este campo casi no tiene límites. así como al alcance que definen. cables con fibras monomodo ó multimodo. conforme al funcionamiento. Wide Area Network) o las centralitas particulares (PBX).LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. hay ante todo una serie de consideraciones. Con el BIGFON (red urbana integrada de telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias experiencias en este aspecto.

la mayor eficiencia de la inversión publicitaria. El primer paso es el lanzamiento en el mercado colombiano con planes de añadir otro país este año. situadas exactamente una al lado de la otra y ópticamente pulidas en sus extremos. La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares que serían difíciles de iluminar de otro modo. es el socio tecnológico de Supercable en el desarrollo de su sistema de televisión por cable. Cada punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro extremo. También se han desarrollado fibras que transmiten rayos láser de alta potencia para cortar y taladrar materiales. El sector de Banda ancha de Motorola. Las fibras pueden resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un cable convencional resultara inútil. las ondas de sonido y la deformación. empresa líder a nivel global en soluciones integrales de comunicaciones y soluciones embebidas. luego se instaló en Venezuela y el año pasado los accionistas de la empresas tomaron la determinación de participar a nivel panregional. que puede ser observada a través de una lupa. como la cavidad perforada por la turbina de un dentista. el que será transformado en un paquete de servicios interactivos en los próximos años. con lo que se reconstruye la imagen. También pueden emplearse para transmitir imágenes. en este caso se utilizan haces de varios miles de fibras muy finas. Con su tecnología de transmisión de datos en fibra óptica. El acuerdo incluye la implementación de una plataforma de cable digital interactivo en Bogotá y en Caracas. y servicio personalizado. la cobertura geográfica más amplia. comunicaciones digitales y compresión de datos. Son los únicos capaces de brindar tecnología de punta. en gráficos de ordenador o computadora y en muchas otras aplicaciones. es de 120 millones de dólares. en Estados Unidos.sensible a numerosos cambios ambientales. Motorola socio tecnológico de Supercable El anuncio ha despertado el interés del sector de negocios de la televisión paga en la región. impreciso o incluso peligroso. video y data que ha ofrecido televisión por cable en Venezuela desde comienzo de los años 90. ¿De cuánto es la inversión que están haciendo en Colombia? La primera etapa del proyecto que estamos contemplando. además del calor y el movimiento. en sistemas de reproducción mediante facsímil y fotocomposición. SuperCable : es una empresa transnacional de servicios de telecomunicaciones en voz. La totalidad de la red de SuperCable es de fibra óptica que permite la transmisión de banda ancha. Instalaron su casa matrizen el sur de La Florida. Nuestros estudios de mercadeo en Bogotá revelaron que hay deficiencias en casi todas las plataformas de televisión por cable: en calidad de señal y 185 . Supercable inició operaciones en Ecuador. entre ellos la presión. se encuentra en capacidad de incursionar en el vasto mercado de las telecomunicaciones. La transmisión de imágenes se utiliza mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

principalmente. da 68 millones de dólares. fibra óptica y realización de la convergencia de servicios. dijo Ramiro Tovar Landa. monto que incluye el 3% por licitar las tres rutas conjuntamente de CFE. El también académico del ITAM señaló que era de esperarse que ante la ausencia de más competidores en este proceso. El espectro les otorgará la cobertura y el ancho de banda necesarias para el 186 .. “A una paridad de 13 pesos por dólar. es decir. como la fibra óptica. Nada despreciable”. Califican a la fibra óptica de la CFE como subsidiada CIUDAD DE MÉXICO (31/MAY/2010). 884 millones de pesos. Esa es la esperanza de empresarios y ejecutivos de esta industria y. precio “realmente subsidiado en comparación al costo que tendría tender una red equivalente”. Supercable tomó esto como una gran oportunidad y por eso partimos en redes avanzadas. la de los usuarios. hace que. la adjudicación se hará al precio mínimo. sean utilizados en forma complementaria. el consorcio formado por Grupo Televisa. tanto estas frecuencias. Necesidades en aspectos de Internet y sus precios. dijo el experto.servicios. Telefónica y Megacable pagará 97 dólares por cada kilómetro de la red.De adjudicarse el par de hilos de fibra óptica oscura de la Comisión Federal de Electricidad (CFE). consultor en regulación y competencia económica. Esta inversión le dará al consorcio una capacidad similar de transporte para igual distancia a la de la red de Telmex. justamente en uno de sus peores momentos. ya que es un paso adelante que el país dará. y ese es el precio que van a pagar por tener una red troncal nacional de más de 20 mil kilómetros de fibra. Estamos partiendo de cero para atender a un mercado de gran magnitud y de grandes carencias. ¿Cómo afrontaran la piratería y los problemas de tarifas? Supercable está haciendo en Colombia una de las inversionesmás importantes en televisión de pago y la reacción incluso de sus competidores ha sido muy positiva. Tovar Landa mencionó que el hecho de que Televisa y Telefónica sean también los participantes más importantes en la licitación de espectro.

que manejaba números rojos. señaló. “No sólo se profundiza la exclusividad de los operadores de cable. asegura especialista En la madrugada del domingo 11 de octubre el presidente de México Felipe Calderón de manera unilateral decretó la desaparición de la Compañía de Luz y Fuerza del Centro. Sin embargo quien en verdad era el objetivo a destruir era el Sindicato Mexicano de Electricistas quien siempre se opuso las políticas 187 . Los argumentos oficiales fueron que la empresa estatal era ineficiente. la paraestatal encargada de surtir energía eléctrica al país. internet. abogada especialista en telecomunicaciones. “La mejor respuesta del gobierno al monopolio de Telmex ha sido fortalecer a otro monopolio”. pero el problema es que no hay visión de Estado en la planeación y rectoría de las telecom.transporte interurbano de servicios convergentes (voz. aplicaciones) y la fibra les dará la complementariedad de incorporar el servicio móvil a la oferta triple play que ofrecen actualmente las empresas Televisa y Megacable. ESPECIAL o Las posturas están definidas El Gobierno ha favorecido otra empresa fuerte para ponerla a competir con Telmex. dijo que esto confirma la tendencia a la creación de monopolios y duopolios o. que representaba una carga para el país y que no había otra solución. El costo por kilómetro de red de fibra óptica será de 97 dólares. lo cual hace posible que tales grupos ofrezcan en exclusiva servicios hasta de cuádruple play. sino que en la operación de ambos tipos de infraestructura se facilita la colusión de agentes que deberían de ser competidores entre sí. afirmó. oligopolios. video. Irene Levy. lo que es contrario a la Ley Federal de Competencia”. También se adujeron problemas técnicos. en el mejor de los casos.

pero no están siendo utilizados. el presidente Felipe Calderón. imagen y audio. 188 . Al SME. parasitario y de haberse colmado de privilegios. Dado lo costoso de esta operación. de manera que es el propio cliente quien aplica la tecnología de transmisión que más se adecúa a sus necesidades. Las viejas afrentas a los usuarios están a flor de piel y les pasan la factura no solo a Luz y Fuerza sino a todos los trabajadores. que tiene más de noventa años de vida. La guerra por la fibra óptica. malbaratarla. La red de fibra óptica cuenta con treinta cables de los que solo se usan 6 para dar servicio de energía eléctrica. resulta más atractivo sobredimensionar la red inicial instalando más cables de fibra óptica de los que son necesarios. La conectividad por la fibra se comercializa en bruto. y telefonía. ésta es un tipo especial de cable que puede llevar y traer una enorme cantidad de datos en video. que han sido desplegados por algún operador de telecomunicaciones. mejorando así el rendimiento obtenido puesto que se evitan conversiones innecesarias de protocolos. Una enorme campaña de prensa se ha encargado de satanizar a los electricistas y de azuzar a la opinión pública en contra de ellos. MOTIVACION Cuando un operador de telecomunicaciones despliega su red de fibra óptica tiene que hacer una gran inversión para construir las canalizaciones y tender los cables de fibra óptica.neoliberales y privatizadoras de los gobiernos en turno. según los representantes del sindicato de electricistas ya tenía en mente otorgarla a una compañía privada española y para colmo. Los 24 restantes son los que se pueden usar para dar el servicio del llamado “triple play” que consiste en televisión por cable. Fibra oscura es la denominación popular que se atribuye a los circuitos de fibra óptica. aunque ellos no hayan establecido las tarifas ni sean responsables de muchas de las corruptelas que se dieron en la paraestatal. un dilema nacional Lo que realmente está detrás de la desaparición de Luz y Fuerza y de su sindicato es una gigantesca red de fibra óptica. es propiedad de la nación y el Sindicato Mexicano de Electricistas pidió desde hace mucho que se le diera la concesión para dar el servicio. sería necesario reabrir las zanjas y tender cables adicionales. se le acusa de corrupto. Si en un futuro fuese necesario ampliar la capacidad de una red ya existente. internet. ineficiente. La red de fibra óptica. sin embargo.

pero existen casos en los que resulta rentable. Por ejemplo. Pero si bien pudo ser una medida economizadora. algo que se puede realizar con mucha agilidad gracias los grandes anchos de banda que garantiza esta tecnología. VENTAJA La fibra oscura sirve para que los operadores ahorren ante previsibles ampliaciones de la capacidad de conexión. o enlazar con centros de datos para realizar copias de seguridad constantes de toda la información. de al menos un megabit por segundo. Esto supondrá que todos los ciudadanos tendrán cerca una conexión de banda ancha. La emplean para conectar sedes de empresas. Este tipo de negocio reduce la necesidad de realizar nuevas inversiones en zonas donde un operador todavía no ha llegado o tiene poca estructura de red. con una particularidad: éstas deben instalar sus propios equipos para operar a través de la fibra y gestionar la comunicación de datos. a cambio de que éste le devuelva el favor cuando se estime oportuno. El motivo es que sus dueños pueden vender esa fibra sobrante a otras empresas.Los cables de fibra pueden contener diferentes números de fibras: 8. Debido al sobredimensionamiento. También se utilizan para crear redes auxiliares que se ofrecen a los competidores para evitar colapsos cuando las redes de estos van sobrecargadas. se ha convertido en un negocio. Las operadoras de telecomunicaciones pueden cubrir estas necesidades concretas alquilando sus circuitos de fibra oscura a estas compañías. grandes bancos y organizaciones gubernamentales usan la fibra oscura para interconectar sus centros de procesos de datos con los correspondientes centros de respaldo. nunca se transmite luz a través de ellos. no todas las fibras se emplean.32.256 etc. Los que quedan sin uso reciben el nombre de fibra oscura. aunque vivan en zonas rurales de difícil acceso para los operadores. De ahí la denominación de fibra oscura INTERES COMERCIAL Existen grandes compañías que disponen de diversas sedes alejadas entre sí por distancias considerables. Es un intercambio denominao "peering". GOOGLE LA UTILIZA 189 . que prometió el Ministerio de Industria para 2011. ya que no tendrían que abrir zanjas de nuevo. es decir. que implica que un operador deja sus redes a otro que tenga sobrecarga. algunos de estos cables nunca llegan a ser utilizados. y abarata la extensión a zonas rurales.64.128. En último término.16. La fibra oscura puede ser uno de los factores que haga posible la extensión de Internet como derecho universal. La fibra oscura es una opción cara de telecomunicaciones. y que tienen necesidad de grandes anchos de banda para intercomunicar dichas sedes.

realizar copias de seguridad de los resultados que proporciona su buscador y. entre otros. El Ministerio de Ciencia e Innovación renovará con fibra oscura la RedIRIS. desde televisión por IP hasta los más diversos trámites con las administraciones públicas. a una simetría con anchos de banda a años luz de los actuales. cuanta más infraestructura de red tengan estos sitios. que penalizan la carga de datos. tanto para rastrear sin descanso los millones de sitios web que pueblan la Red como para proporcionar información a sus usuarios y promover sus diferentes aplicaciones on line.Google es una de las empresas que más datos transfiere en Internet. de paso. como un gigabit por segundo. Facebook y Microsoft. que ya se comercializa en Portugal.000 habitantes. se ha constatado que unas decenas de sitios. El nuevo nombre de la misma. que estará terminada en 2011. Por otra parte. También utiliza esta red de fibra oscura para enviar con un menor coste la ingente cantidad de vídeos que se reproducen a diario a través de YouTube. la fibra oscura también interesa a las administraciones públicas. Por este motivo. 190 . En un estudio sobre el tráfico de datos en Internet. monopolizan hasta un 30% del intercambio de datos global. que interconecta los centros de datos de universidades e institutos de investigación. mayores ahorros de costes conseguirán. En la actualidad. se ha dedicado a comprar fibra oscura para interconectar sus centros de datos. un organismo público que apuesta por la adopción de la fibra óptica. como Google (incluido YouTube). que aplicaciones como la videoconferencia o la televisión en alta definición se pueden producir con una calidad inédita para la mayor parte de los usuarios de Internet en España. en Cataluña se han unido redes de fibra oscura independientes con el objetivo de crear redes locales públicas que permitan usos avanzados. FIBRA PARA USOS AVANZADOS La fibra. epicentro audiovisual en Internet. ahorrar costes. LAS ADMINISTRACIONES Aparte de empresas privadas. gracias a intercambios de tráfico que realiza con los proveedores de acceso. tanto oscura como convencional. será RedIRIS Nova y se estima que tendrá anchos de banda de 100 gigabits por segundo. que gestiona el GIT (Gestión de Infraestructuras de Telecomunicaciones de Asturias). tiene tal caudal de ancho de banda. Por esta razón. Se pasaría de la asimetría actual de las conexiones ADSL. El propósito es llevar la fibra a todos los municipios que tengan más de 1. el Principado de Asturias ya disfruta de la conexión de fibra hasta el hogar en varios municipios gracias a la red Asturcon.

lo que constituyó un adelanto tecnológico altamente efectivo. generando todo ello por el transmisor LED’S y láser.El funcionamiento de la Fibra Óptica es un complejo proceso con diversas operaciones interconectadas que logran que la Fibra Óptica funcione como medio de transportación de la señal luminosa.La Fibra Óptica tiene como ventajas indiscutibles.Los dispositivos implícitos en este complejo proceso son: transmisor. los cuales realizan una importante función técnica.. la alta velocidad al navegar por internet. 191 . 2.CONCLUSIONES Después de efectuada la presente investigación se obtienen las siguientes conclusiones: 1. integrados como un todo a la eficaz realización del proceso. reducidas dimensiones y peso. en todos los órdenes de la vida moderna. 4. y sobre todo su compatibilidad con la tecnología digital.. 3... así como su inmunidad al ruido e interferencia. con aplicaciones. receptor y guía de fibra.La historia de la comunicación a través de la Fibra Óptica revolucionó el mundo de la información.

el Sacro Imperio Romano Germánico. que permitía una mayor blandura en el trazo y una más profunda penetración en la tela. Caterina (que se casó poco después con un artesano de la región). por lo que Leonardo se crió como hijo único. Nació en 1452 en la villa toscana de Vinci. Juventud y descubrimientos técnicos Era un joven agraciado y vigoroso que había heredado la fuerza física de la estirpe de su padre. es muy probable que fuera el modelo para la cabeza de San Miguel en el cuadro de Verrocchio Tobías y el ángel. Italia era entonces un mosaico de ciudades-estados como Florencia. donde un dinámico e inspirado ángel pintado por Leonardo contrasta con la brusquedad del Bautista hecho por Verrocchio. y de Ser Piero. muy reducido.Grandes Científicos Leonardo da Vinci. el hombre fuerte de Milán por entonces. Su enorme curiosidad se manifestó tempranamente. Además de los extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro. siendo aún un niño. su primer biógrafo. creó un escudo de Medusa con dragones que aterrorizó a su padre cuando se topó con él por sorpresa. con los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos últimos matrimonios. El Imperio romano de Oriente cayó en 1453 ante los turcos y apenas sobrevivía aún. sus grandes obras de este período son un San Jerónimo y el gran panel La adoración de los Magos (ambos inconclusos). notables por el innovador dinamismo otorgado por la maestría en los contrastes de rasgos. hijo natural de una campesina. dibujando animales mitológicos de su propia invención. su gran imaginación creativa y la temprana maestría de su pincel. no tardaron en superar a las de su maestro: en el Bautismo de Cristo. en cuya corte se quedaría diecisiete años como «pictor et 192 . era una época violenta en la que. relata cómo el genio de Leonardo. el esplendor de las cortes no tenía límites. por ejemplo. sin embargo. Por lo demás. Giorgio Vasari. El joven discípulo utilizaba allí por vez primera una novedosa técnica recién llegada de los Países Bajos: la pintura al óleo. A pesar de que su padre se casó cuatro veces. Primer período milanés En 1482 se presentó ante el poderoso Ludovico Sforza. en la composición geométrica de la escena y en el extraordinario manejo de la técnica del claroscuro. de finos y bellos rasgos. un rico notario florentino. sólo tuvo hijos (once en total. pequeñas repúblicas como Venecia y feudos bajo el poder de los príncipes o el papa. inspirados en una profunda observación del entorno natural en el que creció.

Los costes desorbitados. la mecánica (con innovadores sistemas de palancas para multiplicar la fuerza humana). que por entonces se encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el río Arno por detrás de la ciudad enemiga cercándola y contemplando la construcción de un canal como vía navegable que comunicase Florencia con el mar: el proyecto sólo se concretó en los extraordinarios mapas de su autor. Leonardo abandonó la ciudad acompañado de Pacioli y tras una breve estancia en casa de su admiradora la marquesa Isabel de Este. quizá. En abril de 1500 Da Vinci entró en Florencia. armados con taladro.ingenierius ducalis». César Borgia. hasta grandes piezas de artillería con proyectiles de acción retardada y barcos con doble pared para resistir las embestidas. Pero poco después el condottiero cayó en desgracia: sus capitanes se sublevaron. descrito por el propio Maquiavelo como «modelo insuperable» de intrigador político y déspota. Leonardo. De nuevo en Milán: de 1506 a 1513 El interés de Leonardo por los estudios científicos era cada vez más intenso: asistía a disecciones de cadáveres. nuevamente como ingeniero militar. recorrió los terrenos del norte. además de la pintura y la escultura. tras veinte años de ausencia. En 1503 Leonardo volvió a la ciudad. Ludovico el Moro perdió el poder. desde una suerte de submarino individual. Fue su período de pleno desarrollo. la Signoria contrató a Leonardo como ingeniero militar. Acosada por los turcos. con un tubo de cuero para tomar aire destinado a unos soldados que. Leonardo comenzó sus apuntes para la formulación de una ciencia de la pintura. trazando mapas. su padre fue envenenado y él mismo cayó gravemente enfermo. calculando distancias precisas. la falta de tiempo y. la arquitectura. en muchos casos. atacarían las embarcaciones por debajo. En pocas semanas proyectó una cantidad de artefactos cuya realización concreta no se haría sino. llegó a Venecia. hicieron que las geniales ideas no pasaran de bocetos. Aunque su ocupación principal era la de ingeniero militar. hijo del papa Alejandro VI. Al mismo tiempo hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba 193 . proyectando puentes y nuevas armas de artillería. hasta los siglos XIX o XX. al tiempo que se ejercitaba en la ejecución y fabricación de laúdes. siguiendo las bases matemáticas fijadas por León Bautista Alberti y Piero della Francesca. que ya dominaban la costa dálmata y amenazaban con tomar el Friuli. sus proyectos (casi todos irrealizados) abarcaron la hidráulica. en Mantua. dominaba Florencia y se preparaba para lanzarse a la conquista de nuevos territorios. El regreso a Florencia A finales de 1499 los franceses entraron en Milán. sobre los que confeccionaba dibujos para describir la estructura y funcionamiento del cuerpo humano. hombre ambicioso y temido. las excesivas (para los venecianos) pretensiones de Leonardo en el reparto del botín.

muerto su protector Giulano de Médicis. estudió antiguos monumentos romanos. hasta la muerte de éste en 1514. junto a Melzi y Salai marchó a Roma. para pasar los tres últimos años de su vida en el palacio de Cloux como «primer pintor. convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San Nazaro Magiore. arquitecto y mecánico del rey».escribir un tratado). En 1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán. trabó una estrecha amistad con el gran arquitecto Bramante. Pero en 1516. Ultimos años: Roma y Francia El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio. en la convicción de que también el hombre podría volar si llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este período se han visto como claros precursores del moderno helicóptero). Leonardo da Vinci. En el Vaticano vivió una etapa de tranquilidad. un genio de las máquinas 194 . proyectó una gran residencia para los Médicis en Florencia y. con un sueldo digno y sin grandes obligaciones: dibujó mapas. Leonardo dejó Italia definitivamente. lo que supuso para Leonardo su segunda frustración como escultor. pero tampoco esta vez el monumento ecuestre pasó de los bocetos. donde se albergó en el belvedere de Giulano de Médicis. quien pretendía retomar para sí el monumental proyecto del «gran caballo». hermano del nuevo papa León X. además.

que consideraba infinitos. Dividió el movimiento en cuatro tipos. circular y helicoidal. matemáticas. hasta tal punto que. Hidráulica Se lo considera uno de los inventores de la hidráulica. está basada en los estudios de Leonardo sobre las ruedas dentadas. Se ocupó del estudio de la mecánica ("paraíso de la ciencia matemática") y realizó investigaciones sobre óptica. hubieran revolucionado la ciencia del siglo XVI. el choque y la percusión. proyectó la construcción de un canal navegable que. tratando nociones tales como la fuerza y el tiempo. geología.Los descubrimientos de Leonardo no se difundieron en su época debido a que suponían un avance tan grande que los hacía indescifrables. anatomía y naturalismo (ahora biología). Esta considerado como uno de los creadores de la hidrodinámica y como el precursor de la ciencia moderna. desde la relojería hasta las modernas cajas de cambios. curvo. de haberse publicado. de acuerdo al método geométrico que requería su tratamiento. Estudió el movimiento de los proyectiles. el directo (en línea recta). meteorología. astronomía. 195 . Una constante en su obra fueron los engranajes. Mecánica Aceptó las nociones fundamentales de la estática aristotélica y el concepto medieval del "ímpetu". Sus investigaciones científicas anticiparon muchos de los avances de la ciencia moderna. En Florencia. Puede decirse que toda la mecánica actual. uniese la ciudad con el mar Tirreno. la caída libre de los cuerpos. pasando por distintas localidades. que concebía como finito. y el peso.

golpeando la Luna". La Luna era un excelente reflector de la luz". Para Leonardo. el brillo de la Tierra era un enigma atractivo. era aficionado a la geometría. aunque nunca llegó a asumir completamente el heliocentrismo. En cuanto al "resplandor fantasmal". la Luna no tiene océanos. Los "mares lunares" están hechos de antigua lava endurecida. creía Leonardo. Esto lo dedujo al observar que la disposición de las articulaciones y de los huesos de las patas de los caballos era similar a la de las piernas humanas. También estudió el mundo vegetal. Él estaba equivocado sobre dos cosas pero comprendió lo básico bastante bien: La primera. explicó.En los tres años de su residencia en Roma estudió el saneamiento de los pantanos. Descubrió que el número de anillos del tronco permite determinar la edad del árbol. no de agua. observando la disposición regular de las hojas en las ramas y la circulación de la linfa. a su vez. fue precursor del modelo de Copérnico (aceptaba la inmovilidad del Sol). El mismo serviría. Biología Los estudios anatómicos de Leonardo le permitieron llegar a importantes conclusiones e introducir el concepto de homología. que él denominaba higroscopio. según lo dice el propio Leonardo. Como artista. sugiriendo un origen común. o similitud de diferentes partes del hombre con la de otros animales. En uno de sus trabajos sobre Astronomía resolvió el enigma del brillo de la Tierra (imagen fantasmal de la luna llena que se forma entre los cuernos de la creciente) que se puede observar cuando hay luna creciente en el horizonte al ponerse el sol. "es debido a la luz del sol rebotando en los océanos de la Tierra y. y las nubes reflejan la mayor 196 . "para ver cuándo se descompone el tiempo". porque revelaría la mayor humedad del aire al aumentar el peso del algodón de la balanza. Su programa para la canalización de los ríos todavía posee valor práctico. Probablemente descubrió el hidrómetro. estaba vivamente interesado en la luz y la sombra. La Tierra brilla por que refleja la luz solar. Como matemático e ingeniero. Ciencias del espacio Como astrónomo. "ya que estaba cubierta con mucho agua". La segunda. los océanos de la Tierra no son el origen principal del brillo terrestre.

(La teoría heliocéntrica de Copérnico no fue publicada hasta 1543.. Esto demuestra. Su tratado De ludo geométrico también quedó inconcluso. ésta se oscurece . El primero en proponer el uso de lentes de contacto para corregir los defectos de la visión fue Leonardo da Vinci en 1508. La mayoría de la gente ni siquiera sabía que la Tierra orbitaba el Sol. Cuando el sol se pone en la Luna. Casi cuatro siglos después. Visualizar esto en los años 1500 requería una imaginación desbordante. una vez más. También investigó los efectos de las lentes esféricas y emitió una teoría de la visión (asignando equivocadamente ésta al cristalino en vez de a la retina). la respuesta puede parecer obvia. En 2005. Nadie había estado nunca en la Luna y mirado "hacia" la Tierra. por ej. Nuestro propio planeta ilumina la noche lunar con un brillo 50 veces mayor que una luna llena. veinticuatro años después de la muerte de Leonardo). produciendo el resplandor ceniciento. Isaac newton Biografia Isaac Newton nació en las primeras horas del 25 de diciembre de 1642 (4 de 197 . Hay todavía una fuente de luz en el cielo: la Tierra. a desarrollar un sistema para determinar el centro de gravedad de una pirámide y las transformaciones recíprocas en los sólidos. la genialidad de Leonardo.pero no completamente. se fabricaban en Alemania las primeras lentes de contacto con un cristal que recubría toda la superficie del ojo. Matemáticas En el campo de las matemáticas se ocupó de problemas susceptibles de admitir una solución geométrica obtenida por métodos empíricos. Esto le condujo.parte. Óptica Estudió los fenómenos de la luz y logró comprender por qué la luz proyecta las imágenes invertidas en la "cámara oscura". después del Apolo.

accedió a que regresara a la escuela para preparar su 198 . a raíz de una pelea con un compañero de la que salió vencedor. que ejercitó en la construcción de diversos mecanismos (el más citado es un reloj de agua) y juguetes (las famosas cometas.enero de 1643. Sin embargo. surgida probablemente de la timidez y el retraimiento. rector de North Witham. regresó a Woolsthorpe. la única que se le conoce con una mujer. También se produjo un importante cambio en su carácter: su inicial indiferencia por los estudios. Cuando Newton contaba doce años. a cuya cola ataba linternas que por las noches asustaban a sus convecinos). tras haber contraído matrimonio en abril del mismo año con Hannah Ayscough. en la pequeña aldea de Woolsthorpe. su madre. lo que tuvo como consecuencia un hecho que influiría decisivamente en el desarrollo del carácter de Newton: Hannah se trasladó a la casa de su nuevo marido y su hijo quedó en Woolsthorpe al cuidado de su abuela materna. quien. cuando ya era una anciana. se desarrolló su poco usual habilidad mecánica. procedente de una familia en otro tiempo acomodada. silencioso. aconsejada por el maestro de Newton y por su propio hermano. otra vez viuda. Su padre. Hay testimonios de que en los años que allí pasó alojado en la casa del farmacéutico. además de tres hermanastros para Isaac. trayendo consigo una sustanciosa herencia que le había legado su segundo marido (y de la que Newton se beneficiaría a la muerte de ella en 1679). se cambió en feroz espíritu competitivo que le llevó a ser el primero de la clase. acababa de fallecer a comienzos de octubre. el joven Isaac no se mostró en absoluto interesado por asumir sus responsabilidades como terrateniente. La manzana de Newton Un año más tarde Newton fue inscrito en la King's School de la cercana población de Grantham. Cumplidos los dieciséis años. se atribuyó una relación sentimental adolescente con Newton. meditativo». el número trece fuera el haber deseado incendiarles su casa con ellos dentro. para que las niñas jugaran con sus muñecas. que prefirió construir utensilios. su madre lo hizo regresar a casa para que empezara a ocuparse de los asuntos de la heredad. su madre. según el testimonio de una de sus compañeras femeninas infantiles. Del odio que ello le hizo concebir a Newton contra su madre y el reverendo Smith da buena cuenta el que en una lista de «pecados» de los que se autoinculpó a los diecinueve años. dos niñas y un niño. Fue un muchacho «sobrio. según el calendario gregoriano). en el Lincolnshire. su madre contrajo de nuevo matrimonio con el reverendo Barnabas Smith. Cuando el pequeño Isaac acababa de cumplir tres años. un pequeño terrateniente. a compartir las diversiones de los demás muchachos.

Poco después regresó a la granja familiar a causa de una epidemia de peste bubónica. su desarrollo de las bases de la mecánica clásica. reconociendo debidamente la prioridad de este último en el hallazgo. Newton fue elegido miembro becario del Trinity College en octubre de 1667. La óptica A su regreso definitivo a Cambridge. Abordó entonces el teorema del binomio. aunque no dio noticia escrita del descubrimiento hasta 1676. Leyes del movimiento de newton 199 . Sin embargo. legitimando así la intervención de los procesos infinitos en los razonamientos matemáticos y poniendo fin al rechazo tradicional de los mismos impuesto por la matemática griega. y dos años más tarde sucedió a Barrow en su cátedra. y desarrolló un método propio denominado cálculo de fluxiones. En 1667 reanudó sus estudios en Cambridge. Newton redactó sus primeras exposiciones sistemáticas del cálculo infinitesimal que no se publicaron hasta más tarde. en dos cartas dirigidas a Henry Oldenburg. entero o fraccionario. Desde finales de 1664 trabajó intensamente en diferentes problemas matemáticos. La primera exposición sustancial de su método de análisis matemático por medio de series infinitas la escribió Newton en 1669. a partir de los trabajos de John Wallis. El procedimiento seguido por Newton para establecer la fórmula binomial tuvo la virtud de hacerle ver el interés de las series infinitas para el cálculo infinitesimal.ingreso en la universidad. Retirado con su familia durante los años 1665-1666. y Newton recibió presiones encaminadas a que permitiera su publicación. secretario de la Royal Society. guardaría silencio durante mucho tiempo sobre sus descubrimientos ante el temor a las críticas y el robo de sus ideas. Durante sus primeros años de docencia no parece que las actividades lectivas supusieran ninguna carga para él. conoció un período muy intenso de descubrimientos. En 1664 o 1665 había hallado la famosa fórmula para el desarrollo de la potencia de un binomio con un exponente cualquiera. poniendo además de manifiesto la naturaleza física de los colores. el teorema lo publicó por vez primera en 1685 John Wallis. pese a lo cual (o quizá precisamente por ello) el escrito no llegó a imprimirse hasta 1711. la formalización del método de fluxiones y la generalización del teorema del binomio. ya que tanto la complejidad del tema como el sistema docente tutorial favorecían el absentismo a las clases. Por esa época. entre los que destaca la ley del inverso del cuadrado de la gravitación. el más importante de los matemáticos ingleses inmediatamente anteriores a Newton. Barrow conoció e hizo conocer el texto.

entonces el cuerpo nº 2 actúa sobre el cuerpo nº 1 con una fuerza de igual intensidad y dirección opuesta. "La ley de la reacción" enunciada algunas veces como que "para cada acción existe una reacción igual y opuesta". En términos más explícitos: "Las fuerzas son siempre producidas en pares. en respuesta a una petición de Leibniz que quería conocer los trabajos de matemáticos ingleses sobre series infinitas. y un cuerpo moviéndose a una velocidad constante en línea recta. dependiendo de las unidades en que se midan F. Si el cuerpo nº 1 actúa con una fuerza F sobre el cuerpo nº 2. 1. aunque esta convención no se sigue siempre en este sitio web). lo continuará haciendo indefinidamente. la medición de la cantidad de materia puesta en movimiento. un objeto ("cuerpo") en descanso seguirá en descanso.Las leyes del movimiento tienen un interés especial aquí. En ausencia de fuerzas. k = 1 dando a = F/m ó en la forma en que se encuentra normalmente en los libros de texto F=ma De forma más precisa. 200 . Cuando se aplica una fuerza a un objeto. cuando se sobreentiende una dirección única. m y a. otro es la masa. deberíamos escribir F = ma siendo F y a vectores en la misma dirección (indicados aquí en negrita. "Las tres leyes del movimiento de Newton" se enuncian abajo en palabras modernas: como hemos visto todas necesitan un poco de explicación. secretario de la Royal Society que favorecía los intercambios de correspondencia entre los científicos de su época. fechada el 13 de junio de 1676. causa del movimiento. La aceleración es en dirección a la fuerza y proporcional a su intensidad y es inversamente proporcional a la masa que se mueve: a = k(F/m) donde k es algún número. fue comunicado por primera vez en dos cartas dirigidas en 1676 a Henry Oldenburg (hacia 16151677). los dos son denominados habitualmente por las letras F y m. con direcciones opuestas y magnitudes iguales. se puede usar la forma simple. En la primera carta." El teorema del binomio de newton El teorema del binomio. No obstante. 3. Un concepto es la fuerza. se acelera. Con unidades correctas (volveremos a ver esto). Newton planteó que todos los movimientos se atienen a tres leyes principales formuladas en términos matemáticos y que implican conceptos que es necesario primero definir con rigor. descubierto hacia 1664-1665. 2. tanto el movimiento orbital como la ley del movimiento de los cohetes se basan en ellas.

Newton no publicó nunca el teorema del binomio. y menciona ejemplos conocidos en los cuales se aplica el teorema. Otras aportación de newton Newton realizó también contribuciones a otros temas matemáticos. El descubrimiento de la generalización de la serie binómica es un resultado importante de por sí. Lo hizo Wallis por primera vez en 1685 en su Algebra. etc. bien directamente.. en una carta fechada el 17 de agosto del mismo año. bien por diferenciación o integración. porque ahora resultaban ser una forma equivalente para expresar las funciones que representaban. que está en posesión de un método general que le permite obtener diferentes resultados sobre las cuadraturas. publicado como apéndice a su Opticks en 1704 y titulado Enumeratio linearum tertii ordinis. las series. Así estuvo en condiciones de demostrar que un buen número de series ya existentes eran casos particulares. de las que faltan seis. Newton utilizó los conceptos de exponentes generalizados mediante los cuales una expresión polinómica se transformaba en una serie infinita. sin embargo. El análisis mediante las series infinitas parecía posible. que compuso esta obra en 1676. traza cuidadosamente un diagrama y el conjunto de estos diagramas presenta todas las formas posibles (salvo las que son degeneradas) de las curvas de tercer grado. y de la que aparecen muchas ediciones en el siglo XVIII. Subrayemos el uso sistemático de dos ejes y el empleo de coordenadas negativas. Para cada una de estas especies. En un pequeño tratado. entre los que podemos mencionar una clasificación de las curvas de tercer grado y trabajos sobre la teoría de las ecuaciones.Newton presenta el enunciado de su teorema y un ejemplo que lo ilustra. atribuyendo a Newton este descubrimiento. Newton le responde también con una carta fechada el 24 de octubre en la que explica en detalle cómo ha descubierto la serie binómica. Interesado por las investigaciones de Leibniz. Leibniz responde. divide las cúbicas en catorce genera que comprenden setenta y dos especies. En una obra publicada por primera vez en 1707. a partir de este descubrimiento Newton tuvo la intuición de que se podía operar con series infinitas de la misma manera que con expresiones polinómicas finitas. y menciona algunos de sus resultados. Aplicando los métodos de Wallis de interpolación y extrapolación a nuevos problemas. Newton expone su visión de la teoría de 201 . Newton.

mencionemos las «identidades de Newton» para la suma de las potencias de las raíces de una ecuación polinómica. En los años siguientes. Señalemos que las cuestiones geométricas ocupan una parte importante en esta obra. instaló en el sótano de su casa un pequeño laboratorio convencido de que iba a ser inventor.las ecuaciones. A los doce años. y llegó a convertir el vagón de equipajes del convoy en un nuevo laboratorio. el Weekly Herald. sin olvidar su pasión por los experimentos. Edison peregrinó por diversas ciudades desempeñando labores de telegrafista en varias compañías y dedicando su tiempo libre a investigar. Evidentemente nos referimos a su Aritmetica universalis. 1931) Inventor norteamericano. compuesta al parecer entre 1673 y 1683 a partir de los cursos que impartió en Cambridge. Al mismo tiempo. consideró que estaba en su mano ganar dinero contante y sonante materializando alguna de sus buenas ocurrencias. esos periódicos los vendía el propio Edison en el tren y no hay que decir que se los quitaban de las manos. Había estallado la Guerra de Secesión y los viajeros estaban ávidos de noticias. En Boston construyó un aparato para registrar automáticamente los votos y lo ofreció al Congreso. Entre las contribuciones importantes de esta obra. Edison convenció a los telegrafistas de la línea férrea para que expusieran en los tablones de anuncios de las estaciones breves titulares sobre el desarrollo de la contienda. y el descubrimiento de la relación entre las raíces y el discriminante de una ecuación. compraba sin cesar revistas científicas. porque Newton parece pensar que es muy útil construir geométricamente la ecuación con el fin de estimar más fácilmente las raíces buscadas. un teorema que generaliza la regla de los signos de Descartes para la determinación del número de raíces imaginarias de un polinomio. libros y aparatos. comenzó a publicar un periódico por su cuenta. Su madre logró despertar la inteligencia del joven Edison. Los políticos 202 . Su primera iniciativa fue vender periódicos y chucherías en el tren que hacía el trayecto de Port Huron a Detroit. El milagro se produjo tras la lectura de un libro que ella le proporcionó titulado Escuela de Filosofía Natural. sin olvidar añadir al pie que los detalles completos aparecían en los periódicos. 1847 . un teorema sobre la cota superior de las raíces de una ecuación polinómica. que era alérgico a la monotonía de la escuela.West Orange. de Richard Green Parker. el más genial de la era moderna. tras conseguir a bajo precio y de segunda mano una prensa de imprimir. Aprendió a telegrafiar y. tal fue su fascinación que quiso realizar por sí mismo todos los experimentos y comprobar todas las teorías que contenía. Thomas Alva Edison Biografia (Milan. Ayudado por su madre.

La competencia era muy enconada y varios laboratorios habían patentado ya sus lámparas. entregó a uno de sus técnicos un extraño boceto. experimentaba con nuevos materiales. diciéndole que construyese aquel artilugio sin pérdida de tiempo. Después de probar diversos 203 . en agosto de 1877. además de novedoso. Edison conectó la máquina. Acto seguido formó una sociedad y se puso a trabajar. colaboró en la construcción de la primera máquina de escribir y dio aplicación práctica al teléfono mediante la adopción del micrófono de carbón. se hallaba sin embargo totalmente concentrado en un nuevo aparato para grabar vibraciones sonoras. En segundo lugar.consideraron que el invento era tan perfecto que no cabía otra posibilidad que rechazarlo. Perfeccionó el telégrafo automático. A los veintinueve años cuando compró un extenso terreno en la aldea de Menlo Park. La idea ya era antigua e incluso se había logrado registrar sonidos en un cilindro de cera. El problema consistía en encontrar un material capaz de mantener una bombilla encendida largo tiempo. práctico y rentable. a trabajos productivos. con lo que los resultados eran frecuentemente positivos. la nota más destacada de la boda fue el trabajo que le costó al padrino hacer que el novio se pusiera unos guantes blancos para la ceremonia. Era muy exigente con su personal y le gustaba que trabajase a destajo. se juró que jamás inventaría nada que no fuera. En abril de 1879. con más ahínco si cabe. Recién instalado en Menlo Park. Edison trabajó día y noche en el proyecto y al fin. los combinaba de modo diferente y seguía intentándolo. Ese mismo día. abandonó su carrera de telegrafista. Al fin. inventó un aparato para transmitir las oscilaciones de los valores bursátiles. Edison acababa de culminar uno de sus grandes inventos: el fonógrafo. e hizo construir allí un nuevo taller y una residencia para su familia. Ahora debía sostener un hogar y se dedicó. sus inventos ya le reportaban beneficios y Edison pudo comprar maquinaria y contratar obreros. Cualquier detalle en el curso de sus investigaciones le hacía vislumbrar la posibilidad de un nuevo hallazgo. cerca de Nueva York. Pero no todo eran triunfos. Edison abordó las investigaciones sobre la luz eléctrica. Edison tomó dos decisiones. Su nombre empezó a ser conocido. pero nadie había logrado reproducirlos. Cuando las pruebas no eran satisfactorias. Edison se había casado a finales de 1871 con Mary Stilwell. Todos pudieron escuchar una canción que había entonado uno de los empleados minutos antes. Muchas de las investigaciones iniciadas por Edison terminaron en sonoros fracasos. En primer lugar. Para él no contaban las horas. Su principal virtud era sin duda su extraordinaria capacidad de trabajo.

Su fama se propagó por el mundo a medida que la luz eléctrica se imponía. Inmediatamente adquirió grandes cantidades de bambú y. sus conciudadanos le señalaron en las encuestas como el hombre más grande de Estados Unidos. haciendo gala de su pragmatismo. A los dieciséis años obtuvo su primer puesto como telegrafista en Port Huron cuando J.elementos con resultados negativos. Pero lo más sorprendente de su carácter era su invulnerabilidad ante el desaliento. y no tardaban en producir beneficios sustanciosos. Luego. en el Empalme de Stratford a ciento sesenta kilómetros de la frontera con Canadá. instaló un taller para fabricar él mismo las bombillas. U. U. para demostrar que el alumbrado eléctrico era más económico que el de gas. se acostaba tarde y se levantaba temprano. En poco tiempo consiguió que cada bombilla le costase treinta y siete centavos: el negocio empezó a marchar como la seda. Era irregular en sus comidas. 204 . el trabajo parecía mantenerlo en forma. Su popularidad llegó a ser inmensa. Mackenzie le deja el puesto al unirse este al Cuerpo Militar de Telegrafistas. En los años veinte. calculándose que Edison había añadido un promedio de treinta millones de dólares al año a la riqueza nacional por un periodo de medio siglo. Mackenzie (telegrafista de la estación) le enseñó telegrafía. Incluso el Congreso se ocupó de su fama. Edison. nunca hizo deporte de ninguna clase y a menudo mascaba tabaco. Todos sus inventos eran patentados y explotados de inmediato. Nunca antes se había tasado con tal exactitud algo tan intangible como el genio. empezó a vender sus lámparas a cuarenta centavos. No duró mucho en este empleo porque no transmitió las señales para detener un tren de carga que. que tras la muerte de su primera esposa había vuelto a casarse. Tenía ochenta y cuatro años cuando un ataque de uremia abatió sus últimas energías. Entretanto. De regreso en los Estados Unidos creó diversas empresas y continuó trabajando con el mismo ardor de siempre. El inicio de su carrera Tras salvar de morir a un niño en las vías del tren en Port Huron. Edison encontró por fin el filamento de bambú carbonizado. su objetivo era hacer que aumentase la demanda para poder producirlas en grandes cantidades y rebajar los costes por unidad. Edison con el apoyo de J. A finales de 1863. U. Su única preocupación en materia de salud consistía en no ganar peso. En 1927 fue nombrado miembro de la National Academy of Sciences y al año siguiente el presidente Coolidge le hizo entrega de una medalla de oro que para él había hecho grabar el Congreso. Ningún contratiempo era capaz de desanimarlo. visitó Europa y fue recibido en olor de multitudes. aunque a él fabricarlas le costase más de un dólar. Mackenzie solicitó empleo como telegrafista de ferrocarril del Grand Truck. el agradecido padre de la criatura J.

un conductor que se calienta por encima de dicha temperatura mediante una corriente eléctrica actuará como fuente luminosa. se marchó a Indianápolis. en Adrian. Edison encontró empleo en el ferrocarril sureño de Lake Shore & Michigan. empresa con la que vincularía estrechamente su destino. Edison se trasladó a Cincinnati. obtuvo empleo en la Western Union. obteniéndose la fuente luminosa más eficaz a la temperatura máxima del filamento. Huyó a Sarnia. En las primeras lámparas incandescentes se utilizaban filamentos de carbono. Después de andar errante por varias ciudades y de un empleo a otro. el cual era el superintendente. en cuyo interior se ha hecho el vacío. en la frontera canadiense y tomó la barcaza hacia Port Huron. donde por su habilidad lo graduaron de operador de segunda a operador de primera clase. o bien llena de un gas inerte.como consecuencia. Se le mandó despachar un mensaje importante. Deben utilizarse filamentos con elevadas temperaturas de fusión porque la proporción entre la energía luminosa y la energía térmica generada por el filamento aumenta a medida que se incrementa la temperatura. aunque las modernas se fabrican con filamentos de delgado hilo de volframio o tungsteno. A principios de 1864.410 ºC. incluso un intento por ir de operador telegráfico a Brasil. en donde fue despedido por desobedecer órdenes. estuvo a punto de tener una colisión de frente. y después de dos meses sin conseguir empleo. La lámpara incandescente está formada por un filamento de material de elevada temperatura de fusión dentro de una ampolla de vidrio. cien kilómetros al sur de Detroit. El filamento debe estar en una atmósfera al vacío o 205 . detalle que Edison desconocía. iluminación mediante cualquiera de los numerosos dispositivos que convierten la energía eléctrica en luz. En febrero de 1865. y lo hizo sin hacer caso de las protestas del hombre que se encontraba transmitiendo al otro lado de la línea. Iluminación eléctrica. se gasta una determinada cantidad de energía que en el conductor aparece en forma de calor. Por cuanto cualquier cuerpo caliente despedirá una cierta cantidad de luz a temperaturas superiores a los 525 ºC. las lámparas fluorescentes y los distintos modelos de lámparas de arco y de vapor por descarga eléctrica. La Western Union Pasó un tiempo en Fort Wayne. Los tipos de dispositivos de iluminación eléctrica utilizados con mayor frecuencia son las lámparas incandescentes. donde una vez más. donde obtuvo empleo en la Western Union. cuya temperatura de fusión es de 3. a finales de 1868 vuelve a conseguir empleo en la Western Union Boston. Tecnología de la iluminación eléctrica Si una corriente eléctrica pasa a través de cualquier conductor que no sea perfecto.

las partículas de fósforo se hallan suspendidas en una fina capa de material aislante. Además. han permitido fabricar lámparas de vapor de sodio de alta presión con una potencia luminosa sin precedentes. Si se elige el tipo de fósforo adecuado. y las lámparas de neón. lo que prolonga la vida útil de la lámpara. revestida en su interior con una fina película de óxido de estaño. revestido en su interior con un material fluorescente conocido como fósforo. Las lámparas fluorescentes se destacan por una serie de importantes ventajas. La mayoría de las lámparas incandescentes modernas se rellenan con una mezcla de gases de argón y halógenos. Un avance en el campo de la iluminación eléctrica es el uso de la luminiscencia. utilizadas para carteles decorativos y escaparates.inerte. pero esta radiación se convierte en luz visible al excitar al fósforo. En este caso. El uso de gas inerte en lugar de vacío en las lámparas incandescentes tiene como ventaja una evaporación más lenta del filamento. como por ejemplo el plástico. Tipos de lámparas Las lámparas de descarga eléctrica dependen de la ionización y de la descarga eléctrica resultante en vapores o gases a bajas presiones en caso de ser atravesados por una corriente eléctrica (véase Ion). Los ejemplos más representativos de este tipo de dispositivos son las lámparas de arco rellenas con vapor de mercurio. Los tubos de cerámica translúcidos. similares al vidrio. que generan una intensa luz azul verdosa y que se utilizan para fotografía e iluminación de carreteras. La lámpara fluorescente es otro tipo de dispositivo de descarga eléctrica empleado para aplicaciones generales de iluminación. ya que de lo contrario al calentarse reaccionaría químicamente con el entorno circundante. conocida como iluminación de paneles. Esta capa se intercala entre dos placas conductoras. la calidad de luz que generan estos dispositivos puede llegar a semejarse a la luz solar. o bien con una pequeña cantidad de nitrógeno o de criptón. las lámparas fluorescentes producen menos calor que las incandescentes para generar una luminosidad semejante. En las más modernas lámparas de descarga eléctrica se añaden otros metales al mercurio y al fósforo de los tubos o ampollas para mejorar el color y la eficacia. Un tubo fluorescente que consume 40 vatios de energía genera tanta luz como una bombilla incandescente de 150 vatios. como el vidrio. Debido a su potencia luminosa. La mayor parte de la radiación del arco es luz ultravioleta invisible. La radiación en el arco de la lámpara de vapor hace que el fósforo se torne fluorescente. La sustitución de las ampollas de vidrio por compactos tubos de vidrio de cuarzo fundido han permitido cambios radicales en el diseño de las lámparas incandescentes. una de las cuales es una sustancia translúcida. 206 . Se trata de una lámpara de vapor de mercurio de baja presión contenida en un tubo de vidrio. tienen una alta eficacia.

el uso de la iluminación de paneles está limitado por el hecho de que las necesidades de corriente para grandes instalaciones es excesivo. cuyas familias procedían de Suabia.Como los dos conductores actúan como electrodos. Las lámparas utilizadas para fotografía de alta velocidad generan un único destello (flash) de luz de alta intensidad que dura escasas centésimas de segundo al encender una carga una hoja de aluminio plegada o un fino hilo de aluminio dentro de una ampolla de vidrio rellena de oxígeno. Se han desarrollado una serie de diferentes tipos de lámparas eléctricas para fines especiales. El pequeño Albert fue un niño quieto y ensimismado. Un ejemplo de ellas es la utilizada en fotografía. Albert Einstein Albert Einstein nació en la ciudad bávara de Ulm el 14 de marzo de 1879. Maya) se trasladara a Milán. estas lámparas han sido diseñadas de manera que puedan actuar como reflectores al ser revestidas de una capa de aluminio especular (véase Óptica). por el nacimiento de una hija. las dificultades económicas hicieron que la familia (aumentada desde 1881. pues considera que todo lo que hay que saber al respecto lo conoce ya desde su primera infancia. y para generar paredes luminosas. como la fotografía y el alumbrado de alta intensidad. como por ejemplo iluminar relojes y sintonizadores de radio. Entre los fotógrafos cada vez es más popular la lámpara estroboscópica de descarga de gas a alta velocidad conocida como flash electrónico. judíos ambos. como comerciante en las novedades electrotécnicas de la época. una lámpara incandescente que funciona a una temperatura superior a la normal para obtener una mayor salida de luz. por el contrario. Los paneles luminiscentes se utilizan para una amplia variedad de objetos.000 horas que dura una lámpara incandescente normal. en donde el padre se estableció. al ser atravesado el fósforo por una corriente alterna hace que se ilumine. En 1894. Yo. que tuvo un desarrollo intelectual lento. Su vida útil está limitada a 2 ó 3 horas. frente a las 750 a 1. El propio Einstein atribuyó a esa lentitud el hecho de haber sido la única persona que elaborase una teoría como la de la relatividad: «un adulto normal no se inquieta por los problemas que plantean el espacio y el tiempo. para destacar los peldaños o los pasamanos de las escaleras. La lámina se enciende por el calor de un pequeño filamento de la ampolla. junto con su hermano Jakob. he tenido un desarrollo tan lento que no he empezado a plantearme preguntas sobre el espacio y el tiempo hasta que he sido mayor». Por lo general. 207 . Sin embargo. Fue el hijo primogénito de Hermann Einstein y de Pauline Koch. Al siguiente año se trasladaron a Munich.

En 1909. El 23 de junio de 1902. con quien tuvo dos hijos: Hans Albert y Eduard. empezó a prestar sus servicios en la Oficina Confederal de la Propiedad Intelectual de Berna. pasando luego a Praga y regresando de nuevo a Zurich en 1912 para ser profesor del Politécnico. en donde fue alumno del matemático Hermann Minkowski. y los cuatro restantes acabaron por imponer un cambio radical en la imagen que la ciencia ofrece del universo. En el otoño de 1896. influido en sus actitudes por las doctrinas pacifistas de Romain Rolland. el primero proporcionaba una explicación teórica. En el plano científico. De éstos. donde trabajó hasta 1909. reuniéndose con sus padres al año siguiente. El estallido de la Primera Guerra Mundial le forzó a separarse de su familia. entre 1914 y 1916. por entonces de vacaciones en Suiza y que ya no volvió a reunirse con él. que se supone constante. Contra el sentir generalizado de la comunidad académica berlinesa. En 1919 se divorciaron. al fotografiarse el eclipse solar del 29 de mayo. y Einstein se casó de nuevo con su prima Elsa. forzándole a 208 . estableciendo la equivalencia entre la energía E de una cierta cantidad de materia y su masa m. nacidos respectivamente en 1904 y en 1910. su actividad se centró. antigua compañera de estudios en Zurich. quien posteriormente generalizó el formalismo cuatridimensional introducido por las teorías de su antiguo alumno. publicó cinco trabajos en los Annalen der Physik: el primero de ellos le valió el grado de doctor por la Universidad de Zurich. contrajo matrimonio con Mileva Maric. La confirmación de sus previsiones llegó en 1919. The Times lo presentó como el nuevo Newton y su fama internacional creció. que se le concedió en 1921 lo fue exclusivamente «por sus trabajos sobre el movimiento browniano y su interpretación del efecto fotoeléctrico». del movimiento browniano. en donde había realizado sus estudios.Einstein permaneció en Munich para terminar sus estudios secundarios. el Premio Nobel de Física. inició sus estudios superiores en la Eidgenossische Technische Hochschule de Zurich. y el segundo daba una interpretación del efecto fotoeléctrico basada en la hipótesis de que la luz está integrada por cuantos individuales. El esfuerzo de Einstein lo situó inmediatamente entre los más eminentes de los físicos europeos. más tarde denominados fotones. Durante 1905. los dos trabajos restantes sentaban las bases de la teoría restringida de la relatividad. en términos de la famosa ecuación E = mc². en el perfeccionamiento de la teoría general de la relatividad. basada en el postulado de que la gravedad no es una fuerza sino un campo creado por la presencia de una masa en el continuum espacio-tiempo. En 1914 pasó a Berlín como miembro de la Academia de Ciencias prusiana. En 1903. inició su carrera de docente universitario en Zurich. pero el reconocimiento público del verdadero alcance de sus teorías tardó en llegar. donde c es la velocidad de la luz. Einstein se manifestó por entonces abiertamente antibelicista. en términos estadísticos.

formuladas en nombre de una singular amalgama de ciencia. Pero sus propuestas en pro de que la humanidad evitara las amenazas de destrucción individual y colectiva. para él. se unió a los científicos que buscaban la manera de impedir el uso futuro de la bomba y propuso la formación de un gobierno mundial a partir del embrión constituido por las Naciones Unidas. Einstein dijo una vez que la política poseía un valor pasajero. En los últimos años de su vida. con el acceso de Hitler al poder. Publicó dos trabajos en 1902 y 1903. En 1939. se dirigió al presidente Roosevelt instándole a emprender un programa de investigación sobre la energía atómica. y convencido de la posibilidad de que los alemanes estuvieran en condiciones de fabricar una bomba atómica. su soledad se vio agravada por la necesidad de renunciar a la ciudadanía alemana y trasladarse a Estados Unidos. en donde pasó los últimos veinticinco años de su vida en el Instituto de Estudios Superiores de Princeton. una 209 . Tal investigación. religión y socialismo. desde las partículas subatómicas hasta los cuerpos estelares. corroborando experimentalmente que la temperatura de un cuerpo se debe a la agitación de sus moléculas. supuestamente. ciudad en la que murió el 18 de abril de 1955. la amargura por no hallar la fórmula que revelase el secreto de la unidad del mundo hubo de acentuarse por la necesidad en que se sintió de intervenir dramáticamente en la esfera de lo político. a instancias de los físicos Leo Szilard y Paul Wigner. con un estuche de violín bajo el brazo. resultó infructuosa y acabó por acarrearle el extrañamiento respecto del resto de la comunidad científica. En 1901 apareció el primer trabajo científico de Einstein: trataba de la atracción capilar. Durante la siguiente década. Einstein concentró sus esfuerzos en hallar una relación matemática entre el electromagnetismo y la atracción gravitatoria. debía ser el objetivo último de la física: descubrir las leyes comunes que. empeñado en avanzar hacia el que. sobre los fundamentos estadísticos de la termodinámica. mientras que una ecuación valía para toda la eternidad. A partir de 1933. que ocupó el resto de su vida. habían de regir el comportamiento de todos los objetos del universo. Luego de las explosiones de Hiroshima y Nagasaki.multiplicar sus conferencias de divulgación por todo el mundo y popularizando su imagen de viajero de la tercera clase de ferrocarril. recibieron de los políticos un rechazo comparable a las críticas respetuosas que suscitaron entre los científicos sus sucesivas versiones de la idea de un campo unificado.

Wilhelm Ostwald. El movimiento browniano había desconcertado a la comunidad científica desde su descubrimiento unas décadas atrás. El trabajo de Einstein sobre el efecto fotoeléctrico le proporcionaría el Premio Nobel de física en 1921. La explicación de Einstein proporcionaba una evidencia experimental incontestable sobre la existencia real de los átomos.teoría aún discutida en esa época. celebrando el centenario de publicación de estos trabajos. comunicó a Arnold Sommerfeld que había sido transformado en un creyente en los átomos por la explicación de Einstein del movimiento browniano. El artículo de Einstein sobre el movimiento atómico entregaba a los experimentalistas un método sencillo para contar átomos mirando a través de un microscopio ordinario. titulado Sobre el movimiento requerido por la teoría cinética molecular del calor de pequeñas partículas suspendidas en un líquido estacionario. En él Einstein proponía la idea de 210 . el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia masa-energía. pero la mayoría de los científicos no se ponían de acuerdo sobre su existencia real. Ese mismo año escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. dos campos que en aquella época permanecían controvertidos. El artículo explicaba el fenómeno haciendo uso de las estadísticas del movimiento térmico de los átomos individuales que forman un fluido. Estos artículos fueron enviados a la revista "Annalen der Physik" y son conocidos generalmente como los artículos del "Annus Mirabilis" (del Latín: Año extraordinario). uno de los líderes de la escuela antiatómica. En ellos explicaba el movimiento browniano. Antes de este trabajo los átomos se consideraban un concepto útil en física y química. Movimiento browniano El primero de sus artículos de 1905. El artículo también aportaba un fuerte impulso a la mecánica estadística y a la teoría cinética de los fluidos. Efecto fotoeléctrico El segundo artículo se titulaba Un punto de vista heurístico sobre la producción y transformación de luz. cubría sus estudios sobre el movimiento browniano.[12] Los artículos de 1905 En 1905 finalizó su doctorado presentando una tesis titulada Una nueva determinación de las dimensiones moleculares.

El mérito de Einstein estaba por lo tanto en explicar lo sucedido en el experimento de Michelson y Morley como consecuencia final de una teoría completa y elegante basada en principios fundamentales y no como una explicación ad-hoc o fenomenológica de un fenómeno observado. dando forma matemática a la conjetura de Fitzgerald. por lo tanto. Ya en 1894 George Fitzgerald había estudiado esta cuestión demostrando que el experimento de Michelson y Morley podía ser explicado si los cuerpos se contraen en la dirección de su movimiento. En este artículo Einstein introducía la teoría de la relatividad especial estudiando el movimiento de los cuerpos y el electromagnetismo en ausencia de la fuerza de interacción gravitatoria. 211 . algunas de las ecuaciones fundamentales del artículo de Einstein habían sido introducidas anteriormente (1903) por Hendrik Lorentz. En realidad Einstein desarrollaba su teoría de una manera totalmente diferente a estos autores deduciendo hechos experimentales a partir de principios fundamentales y no dando una explicación fenomenológica a observaciones desconcertantes. Una explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada. La relatividad especial resolvía los problemas abiertos por el experimento de Michelson y Morley en el que se había demostrado que las ondas electromagnéticas que forman la luz se movían en ausencia de un medio. De hecho. por el que las leyes de la física deben ser invariantes para todos los observadores que se mueven a velocidades constantes entre ellos. Relatividad especial El tercer artículo de Einstein de ese año se titulaba Zur Elektrodynamik bewegter Körper ("Sobre la electrodinámica de cuerpos en movimiento")."quanto" de luz (ahora llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico. Esta famosa publicación está cuestionada como trabajo original de Einstein. que la velocidad de la luz es constante para cualquier observador. y el segundo. físico holandés. La teoría de los cuantos de luz fue un fuerte indicio de la dualidad ondacorpúsculo y de que los sistemas físicos pueden mostrar tanto propiedades ondulatorias como corpusculares. constante y no relativa al movimiento. La velocidad de la luz es. introducido por Galileo siglos antes. Este segundo axioma. Este artículo constituyó uno de los pilares básicos de la mecánica cuántica. debido a que en ella omitió citar toda referencia a las ideas o conceptos desarrollados por estos autores así como los trabajos de Poincaré. Su razonamiento se basó en dos axiomas simples: En el primero reformuló el principio de simultaneidad.

es: donde V era la notación de la velocidad de la luz usada por Einstein en 1905. Si a ambos lados de los observadores se pusiera un detector. ninguno de los observadores se pondría de acuerdo en qué detector se activó primero (se pierden los conceptos de tiempo absoluto y simultaneidad). Equivalencia masa-energía El cuarto artículo de aquel año se titulaba Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig y mostraba una deducción de la ecuación de la relatividad que relaciona masa y energía. ambos verán alejarse la luz produciendo un círculo perfecto con cada uno de ellos en el centro. Esta ecuación implica que la energía E de un cuerpo en reposo es igual a su masa m multiplicada por la velocidad de la luz al cuadrado: Muestra cómo una partícula con masa posee un tipo de energía. La última de estas charlas concluyó con la presentación de la ecuación que reemplaza a la ley de gravedad de Newton. va más allá de las consecuencias previstas por Lorentz o Poincaré que simplemente relataban un mecanismo para explicar el acortamiento de uno de los brazos del experimento de Michelson y Morley. multiplicada por la velocidad de la luz al cuadrado. En esta 212 . Relatividad general En noviembre de 1915 Einstein presentó una serie de conferencias en la Academia de Ciencias de Prusia en las que describió la teoría de la relatividad general.revolucionario. "energía en reposo". La relación masa-energía se utiliza comúnmente para explicar cómo se produce la energía nuclear. la cantidad de energía producida en la fisión de un núcleo atómico se calcula como la diferencia de masa entre el núcleo inicial y los productos de su desintegración. Paralelamente. distinta de las clásicas energía cinética y energía potencial. midiendo la masa de núcleos atómicos y dividiendo por el número atómico se puede calcular la energía de enlace atrapada en los núcleos atómicos. En este artículo se exponía que "la variación de masa de un objeto que emite una energía L. Este postulado implica que si un destello de luz se lanza al cruzarse dos observadores en movimiento relativo.

describiendo a la luz como un gas de fotones y pidiendo la ayuda de Einstein para su publicación. después de su Teoría general de la relatividad. una de las predicciones de la relatividad general. La relatividad general fue obtenida por Einstein a partir de razonamientos matemáticos. muchas de las cuales no serían descubiertas sino con posterioridad a la muerte de Einstein. Desde entonces la teoría se ha verificado en todos y cada uno de los experimentos y verificaciones realizados hasta el momento. Aunque Albert Einstein fue mundialmente célebre por sus trabajos en física teórica. experimentos hipotéticos (Gedanken experiment) y rigurosa deducción matemática sin contar realmente con una base experimental. 213 . la llamada Teoría de Campo Unificada. y sus intentos no tuvieron éxito. Cuando se hizo pública esta confirmación la fama de Einstein se incrementó enormemente y se consideró un paso revolucionario en la física. paulitinamente fue aislándose en su investigación. El principio fundamental de la teoría era el denominado principio de equivalencia. expuso su Teoría de campo unificada en un artículo titulado «Sobre la teoría generalizada de la gravitación» (On the Generalized Theory of Gravitation) en la famosa revista Scientific American. como era en la gravedad newtoniana. durante un eclipse. las ecuaciones permitían deducir fenómenos comprobables. la lengua más importante en física en la época. Persiguiendo la unificación de las fuerzas fundamentales. La gravedad no es ya una fuerza o acción a distancia. específicamente la gravitación y el electromagnetismo. conjuntamente con Bose. Satyendra Nath Bose. La Teoría de Campo Unificada Einstein dedicó sus últimos años a la búsqueda de una de las más importantes teorías de la física.teoría todos los observadores son considerados equivalentes y no únicamente aquellos que se mueven con una velocidad uniforme. consistió en una serie de intentos tendentes a generalizar su teoría de la gravitación para lograr unificar y resumir las leyes fundamentales de la física. Einstein se dio cuenta de que el mismo tipo de estadísticas podían aplicarse a grupos de átomos y publicó el artículo. en alemán. sino una consecuencia de la curvatura del espacio-tiempo. Estadísticas de Bose-Einstein En 1924 Einstein recibió un artículo de un joven físico indio. la desviación de la luz de una estrella al pasar cerca del Sol. Dicha búsqueda. A pesar de la abstracción matemática de la teoría. La teoría proporcionaba las bases para el estudio de la cosmología y permitía comprender las características esenciales del Universo. En 1919 Arthur Eddington fue capaz de medir. En el año 1950. Las estadísticas de Bose-Einstein explican el comportamiento de los tipos básicos de partículas elementales denominadas bosones.

las cuales no se entendieron bien sino después de quince años de la muerte de Einstein (cerca del año 1970) mediante numerosos experimentos en física de altas energías.Albert ignoró algunos importantes desarrollos en la física. Los intentos propuestos por la Teoría de cuerdas o la Teoría M. siendo notablemente visible en el tema de las fuerzas nuclear fuerte y nuclear débil. Leonardo Da Vinci I 214 . muestran que aún perdura su ímpetu de alcanzar demostrar la gran teoría de la unificación de las leyes de la física.

el increíble genio del renacimiento cuyas ideas han cambiado al mundo y hoy.Este trabajo está hecho con el fin de conocer un poco de la vida de Leonardo Da Vinci. Sus extraordinarios dones. autor de legendarios estudios de anatomía. se combinaron para aislarlo de su época. Realizó cientos de minuciosos dibujos y esculturas. uno pertenece por entero a sí mismo”. Espero y les agrade. tienen plena vigencia. A continuación se mostrara un poco sobre la vida de éste gran personaje. pero la mayoría fueron inventados con el fin de disminuir el esfuerzo y el trabajo humano. escribió. Leonardo fue dueño de un talento sobrenatural. 215 . la diversidad de sus intereses y una increíble imaginación. Su profundo amor por el conocimiento y la investigación fue la clave tanto de su comportamiento artístico como científico. biología. tal es el caso que de éstas surgieron inventos de gran trascendencia. de igual manera. lo que tampoco le impidió ser un notable músico y poeta. se mostraran algunos de sus inventos como los terrestres. esto no le impidió el crear nuevas cosas y dar vuelo a su imaginación en el campo científico y artístico. Fue el responsable de pinturas como “la ultima cena” y “la Gioconda”. a casi 500 años de su muerte. arquitectura. Vivió sus 67 años sin darle ni un día de franco a su genio. Las características de Leonardo no se han repetido –ni antes ni después de su existencia. Aunque Leonardo estaba un poco adelantado en la manera de pensar a su época. “si uno está solo.en ningún otro ser humano. transformándose en el curioso más lucido de Occidente. Algunos de sus inventos fueron utilizados con fines bélicos. los de aire y los de agua. La suma de todo el conocimiento fue depositada en un solo hombre: Leonardo Da Vinci. La mayor parte de su vida la dedico al estudio y al aprendizaje de nuevas ideas. una de las mentes más brillantes que han existido y la mejor del Renacimiento. Símbolo máximo del Renacimiento. ingeniería y matemáticas.

En el terreno de la invención, Leonardo se adelantó más de cuatro siglos a su época. Estaba obsesionado por diseñar máquinas capaces de multiplicar varias veces la fuerza del hombre. Da Vinci registraba en papel todas sus ideas, haciéndose famosas sus anotaciones por su singular forma de escribir (escritura especular). En base a sus numerosos planes ha sido posible reconstruir todas las invenciones de un talento único en la historia del ser humano. A través de los años, la mayoría de las notas se perdieron o fueron robadas, pero algunas de ellas fueron encontradas siglos más tarde y fueron la base para el desarrollo de cientos de maquinarias que hoy son usadas hasta en la tecnología especial. Una muestra itinerante exhibe por Europa los dibujos de las máquinas ideadas por Leonardo más las maquetas que los recrean. Era un típico hombre del Renacimiento, que jamás quiso quedar encasillado por alguna de sus actividades y siempre estaba dispuesto a aprender algo nuevo. Dicen que el ultimo día de su vida, con el último aliento, se le escucho susurrar: “Ditemi che qualcosa e stata fatta” (decidme que alguna cosa se hizo). BIOGRAFIA Nació en 1452 en la villa toscana de Vinci, hijo natural de una campesina, Caterina (que se casó poco después con un artesano de la región), y de Ser Piero, un rico notario florentino. Italia era entonces un mosaico de ciudades-estados como Florencia, pequeñas repúblicas como Venecia y feudos bajo el poder de los príncipes o el papa. El Imperio romano de Oriente cayó en 1453 ante los turcos y apenas sobrevivía aún, muy reducido, el Sacro Imperio Romano Germánico; era una época violenta en la que, sin embargo, el esplendor de las cortes no tenía límites. A pesar de que su padre se casó cuatro veces, sólo tuvo hijos (once en total, con los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos últimos matrimonios, por lo que Leonardo se crió como hijo único. Su enorme curiosidad se manifestó tempranamente, dibujando animales mitológicos de su propia invención, inspirados en una profunda observación del entorno natural en el que creció. Giorgio Vasari, su primer biógrafo, relata cómo el genio de Leonardo, siendo aún un niño, creó un escudo de Medusa con dragones que aterrorizó a su padre cuando se topó con él por sorpresa.

216

Recreación del autorretrato de Leonardo Consciente ya del talento de su hijo, su padre lo autorizó, cuando Leonardo cumplió los catorce años, a ingresar como aprendiz en el taller de Andrea del Verrocchio, en donde, a lo largo de los seis años que el gremio de pintores prescribía como instrucción antes de ser reconocido como artista libre, aprendió pintura, escultura, técnicas y mecánicas de la creación artística. El primer trabajo suyo del que se tiene certera noticia fue la construcción de la esfera de cobre proyectada por Brunelleschi para coronar la iglesia de Santa Maria dei Fiori. Junto al taller de Verrocchio, además, se encontraba el de Antonio Pollaiuollo, en donde Leonardo hizo sus primeros estudios de anatomía y, quizá, se inició también en el conocimiento del latín y el griego. Juventud y descubrimientos técnicos Era un joven agraciado y vigoroso que había heredado la fuerza física de la estirpe de su padre; es muy probable que fuera el modelo para la cabeza de San Miguel en el cuadro de Verrocchio Tobías y el ángel, de finos y bellos rasgos. Por lo demás, su gran imaginación creativa y la temprana maestría de su pincel, no tardaron en superar a las de su maestro: en el Bautismo de Cristo, por ejemplo, donde un dinámico e inspirado ángel pintado por Leonardo contrasta con la brusquedad del Bautista hecho por Verrocchio.
217

El joven discípulo utilizaba allí por vez primera una novedosa técnica recién llegada de los Países Bajos: la pintura al óleo, que permitía una mayor blandura en el trazo y una más profunda penetración en la tela. Además de los extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro, sus grandes obras de este período son un San Jerónimo y el gran panel La adoración de los Magos (ambos inconclusos), notables por el innovador dinamismo otorgado por la maestría en los contrastes de rasgos, en la composición geométrica de la escena y en el extraordinario manejo de la técnica del claroscuro. Florencia era entonces una de las ciudades más ricas de Europa; sus talleres de manufacturas de sedas y brocados de oriente y de lanas de occidente, y sus numerosas tejedurías la convertían en el gran centro comercial de la península itálica; allí los Médicis habían establecido una corte cuyo esplendor debía no poco a los artistas con que contaba. Pero cuando el joven Leonardo comprobó que no conseguía de Lorenzo el Magnífico más que alabanzas a sus virtudes de buen cortesano, a sus treinta años decidió buscar un horizonte más prospero. Primer período milanés En 1482 se presentó ante el poderoso Ludovico Sforza, el hombre fuerte de Milán por entonces, en cuya corte se quedaría diecisiete años como «pictor et ingenierius ducalis». Aunque su ocupación principal era la de ingeniero militar, sus proyectos (casi todos irrealizados) abarcaron la hidráulica, la mecánica (con innovadores sistemas de palancas para multiplicar la fuerza humana), la arquitectura, además de la pintura y la escultura. Fue su período de pleno desarrollo; siguiendo las bases matemáticas fijadas por León Bautista Alberti y Piero della Francesca, Leonardo comenzó sus apuntes para la formulación de una ciencia de la pintura, al tiempo que se ejercitaba en la ejecución y fabricación de laúdes. Estimulado por la dramática peste que asoló Milán y cuya causa veía Leonardo en el hacinamiento y suciedad de la ciudad, proyectó espaciosas villas, hizo planos para canalizaciones de ríos e ingeniosos sistemas de defensa ante la artillería enemiga. Habiendo recibido de Ludovico el encargo de crear una monumental estatua ecuestre en honor de Francesco, el fundador de la dinastía Sforza, Leonardo trabajó durante dieciséis años en el proyecto del «gran caballo», que no se concretaría más que en una maqueta, destruida poco después durante una batalla.

218

El hombre de Vitruvio, canon del cuerpo humano Resultó sobre todo fecunda su amistad con el matemático Luca Pacioli, fraile franciscano que en 1494 publicó su tratado de la Divina proportione, ilustrada por Leonardo. Ponderando la vista como el instrumento de conocimiento más certero con que cuenta el ser humano, Leonardo sostuvo que a través de una atenta observación debían reconocerse los objetos en su forma y estructura para describirlos en la pintura de la manera más exacta. De este modo el dibujo se convertía en el instrumento fundamental de su método didáctico, al punto que podía decirse que en sus apuntes el texto estaba para explicar el dibujo, y no éste para ilustrar a aquél, por lo que Da Vinci ha sido reconocido como el creador de la moderna ilustración científica. El ideal del saper vedere guió todos sus estudios, que en la década de 1490 comenzaron a perfilarse como una serie de tratados (inconclusos, que fueron recopilados luego en el Codex Atlanticus, así llamado por su gran tamaño). Incluye trabajos sobre pintura, arquitectura, mecánica, anatomía, geografía, botánica, hidráulica, aerodinámica, fundiendo arte y ciencia en una cosmología individual que da, además, una vía de salida para un debate estético que se encontraba anclado en un más bien estéril neoplatonismo. Aunque Leonardo no parece que se preocupara demasiado por formar su propia escuela, en su taller milanés se creó poco a poco un grupo de fieles aprendices y alumnos: Giovanni Boltraffio, Ambrogio de Predis, Andrea Solari, su inseparable Salai, entre otros; los estudiosos no se han puesto de acuerdo aún acerca de la exacta atribución de algunas obras de este período, tales como la Madona Litta o
219

el retrato de Lucrezia Crivelli. Contratado en 1483 por la hermandad de la Inmaculada Concepción para realizar una pintura para la iglesia de San Francisco, Leonardo emprendió la realización de lo que sería la celebérrima Virgen de las Rocas, cuyo resultado final, en dos versiones, no estaría listo a los ocho meses que marcaba el contrato, sino veinte años más tarde. La estructura triangular de la composición, la gracia de las figuras, el brillante uso del famoso sfumato para realzar el sentido visionario de la escena, convierten a ambas obras en una nueva revolución estética para sus contemporáneos. A este mismo período pertenecen el retrato de Ginevra de Benci (1475-1478), con su innovadora relación de proximidad y distancia y la belleza expresiva de La belle Ferronière. Pero hacia 1498 Leonardo finalizaba una pintura mural, en principio un encargo modesto para el refectorio del convento dominico de Santa Maria dalle Grazie, que se convertiría en su definitiva consagración pictórica: La última cena. Necesitamos hoy un esfuerzo para comprender su esplendor original, ya que se deterioró rápidamente y fue mal restaurada muchas veces. La genial captación plástica del dramático momento en que Cristo dice a los apóstoles «uno de vosotros me traicionará» otorga a la escena una unidad psicológica y una dinámica aprehensión del momento fugaz de sorpresa de los comensales (del que sólo Judas queda excluido). El mural se convirtió no sólo en un celebrado icono cristiano, sino también en un objeto de peregrinación para artistas de todo el continente. El regreso a Florencia A finales de 1499 los franceses entraron en Milán; Ludovico el Moro perdió el poder. Leonardo abandonó la ciudad acompañado de Pacioli y tras una breve estancia en casa de su admiradora la marquesa Isabel de Este, en Mantua, llegó a Venecia. Acosada por los turcos, que ya dominaban la costa dálmata y amenazaban con tomar el Friuli, la Signoria contrató a Leonardo como ingeniero militar. En pocas semanas proyectó una cantidad de artefactos cuya realización concreta no se haría sino, en muchos casos, hasta los siglos XIX o XX, desde una suerte de submarino individual, con un tubo de cuero para tomar aire destinado a unos soldados que, armados con taladro, atacarían las embarcaciones por debajo, hasta grandes piezas de artillería con proyectiles de acción retardada y barcos con doble pared para resistir las embestidas. Los costes desorbitados, la falta de tiempo y, quizá, las excesivas (para los venecianos) pretensiones de Leonardo en el reparto del botín, hicieron que las geniales ideas no pasaran de bocetos. En abril de 1500 Da Vinci entró en Florencia, tras veinte años de ausencia. César Borgia, hijo del papa Alejandro VI, hombre ambicioso y temido, descrito por el propio Maquiavelo como «modelo insuperable» de intrigador político y déspota, dominaba Florencia y se preparaba para lanzarse a la conquista de nuevos territorios. Leonardo, nuevamente como ingeniero militar, recorrió los terrenos del norte, trazando mapas, calculando distancias precisas, proyectando
220

puentes y nuevas armas de artillería. Pero poco después el condottiero cayó en desgracia: sus capitanes se sublevaron, su padre fue envenenado y él mismo cayó gravemente enfermo. En 1503 Leonardo volvió a la ciudad, que por entonces se encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el río Arno por detrás de la ciudad enemiga cercándola y contemplando la construcción de un canal como vía navegable que comunicase Florencia con el mar: el proyecto sólo se concretó en los extraordinarios mapas de su autor. Pero Leonardo ya era reconocido como uno de los mayores maestros de Italia. En 1501 había causado admiración con su Santa Ana, la Virgen y el Niño; en 1503 recibió el encargo de pintar un gran mural (el doble del tamaño de La última cena) en el palacio Viejo: la nobleza florentina quería inmortalizar algunas escenas históricas de su gloria. Leonardo trabajó tres años en La batalla de Angheri, que quedaría inconclusa y sería luego desprendida por su deterioro. Importante por los bocetos y copias, éstas admirarían a Rafael e inspirarían, un siglo más tarde, una célebre de Peter Paul Rubens. También sólo en copias sobrevivió otra gran obra de este periodo: Leda y el cisne. Sin embargo, la cumbre de esta etapa florentina (y una de las pocas obras acabadas por Leonardo) fue el retrato de Mona Lisa. Obra famosa desde el momento de su creación, se convirtió en modelo de retrato y casi nadie escaparía a su influjo en el mundo de la pintura. La mítica Gioconda ha inspirado infinidad de libros y leyendas, y hasta una ópera; pero poco se sabe de su vida. Ni siquiera se conoce quién encargó el cuadro, que Leonardo se llevó consigo a Francia, donde lo vendió al rey Francisco I por cuatro mil piezas de oro. Perfeccionando su propio hallazgo del sfumato, llevándolo a una concreción casi milagrosa, Leonardo logró plasmar un gesto entre lo fugaz y lo perenne: la «enigmática sonrisa» de la Gioconda es uno de los capítulos más admirados, comentados e imitados de la historia del arte y su misterio sigue aún hoy fascinando. Existe la leyenda de que Leonardo promovía ese gesto en su modelo haciendo sonar laúdes mientras ella posaba; el cuadro, que ha atravesado no pocas vicisitudes, ha sido considerado como cumbre y resumen del talento y la «ciencia pictórica» de su autor. De nuevo en Milán: de 1506 a 1513 El interés de Leonardo por los estudios científicos era cada vez más intenso: asistía a disecciones de cadáveres, sobre los que confeccionaba dibujos para describir la estructura y funcionamiento del cuerpo humano. Al mismo tiempo hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba escribir un tratado), en la convicción de que también el hombre podría volar si llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este período se han visto como claros precursores del moderno helicóptero). Absorto por estas cavilaciones e inquietudes, Leonardo no dudó en abandonar Florencia cuando en 1506 Charles d'Amboise, gobernador francés de Milán, le ofreció el cargo de arquitecto y pintor de la corte; honrado y admirado por su nuevo patrón, Da Vinci proyectó para él un castillo y ejecutó bocetos para el
221

oratorio de Santa Maria dalla Fontana, fundado por aquél. Su estadía milanesa sólo se interrumpió en el invierno de 1507 cuando, en Florencia, colaboró con el escultor Giovanni Francesco Rustici en la ejecución de los bronces del baptisterio de la ciudad. Quizás excesivamente avejentado para los cincuenta años que contaba entonces, su rostro fue tomado por Rafael como modelo del sublime Platón para su obra La escuela de Atenas. Leonardo, en cambio, pintaba poco dedicándose a recopilar sus escritos y a profundizar sus estudios: con la idea de tener finalizado para 1510 su tratado de anatomía trabajaba junto a Marcantonio della Torre, el más célebre anatomista de su tiempo, en la descripción de órganos y el estudio de la fisiología humana. El ideal leonardesco de la «percepción cosmológica» se manifestaba en múltiples ramas: escribía sobre matemáticas, óptica, mecánica, geología, botánica; su búsqueda tendía hacia el encuentro de leyes funciones y armonías compatibles para todas estas disciplinas, para la naturaleza como unidad. Paralelamente, a sus antiguos discípulos se sumaron algunos nuevos, entre ellos el joven noble Francesco Melzi, fiel amigo del maestro hasta su muerte. Junto a Ambrogio de Predis, Leonardo culminó en 1508 la segunda versión de La Virgen de las Rocas; poco antes, había dejado sin cumplir un encargo del rey de Francia para pintar dos madonnas. Ultimos años: Roma y Francia El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio, quien pretendía retomar para sí el monumental proyecto del «gran caballo», convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San Nazaro Magiore; pero tampoco esta vez el monumento ecuestre pasó de los bocetos, lo que supuso para Leonardo su segunda frustración como escultor. En 1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán; junto a Melzi y Salai marchó a Roma, donde se albergó en el belvedere de Giulano de Médicis, hermano del nuevo papa León X. En el Vaticano vivió una etapa de tranquilidad, con un sueldo digno y sin grandes obligaciones: dibujó mapas, estudió antiguos monumentos romanos, proyectó una gran residencia para los Médicis en Florencia y, además, trabó una estrecha amistad con el gran arquitecto Bramante, hasta la muerte de éste en 1514. Pero en 1516, muerto su protector Giulano de Médicis, Leonardo dejó Italia definitivamente, para pasar los tres últimos años de su vida en el palacio de Cloux como «primer pintor, arquitecto y mecánico del rey». El gran respeto que Francisco I le dispensó hizo que Leonardo pasase esta última etapa de su vida más bien como un miembro de la nobleza que como un empleado de la casa real. Fatigado y concentrado en la redacción de sus últimas páginas para su tratado sobre la pintura, pintó poco aunque todavía ejecutó extraordinarios dibujos sobre temas bíblicos y apocalípticos. Alcanzó a completar el ambiguo San Juan Bautista, un andrógino duende que desborda gracia,
222

sensualidad y misterio; de hecho, sus discípulos lo imitarían poco después convirtiéndolo en un pagano Baco, que hoy puede verse en el Louvre de París. A partir de 1517 su salud, hasta entonces inquebrantable, comenzó a desmejorar. Su brazo derecho quedó paralizado; pero con su incansable mano izquierda Leonardo aún hizo bocetos de proyectos urbanísticos, de drenajes de ríos y hasta decorados para las fiestas palaciegas. Su casa de Amboise se convirtió en una especie de museo, plena de papeles y apuntes conteniendo las ideas de este hombre excepcional, muchas de las cuales deberían esperar siglos para demostrar su factibilidad e incluso su necesidad; llegó incluso, en esta época, a concebir la idea de hacer casas prefabricadas. Sólo por las tres telas que eligió para que lo acompañasen en su última etapa, la Gioconda, el San Juan y Santa Ana, la Virgen y el Niño, puede decirse que Leonardo poseía entonces uno de los grandes tesoros de su tiempo. El 2 de mayo de 1519 murió en Cloux; su testamento legaba a Melzi todos sus libros, manuscritos y dibujos, que éste se encargó de retornar a Italia. Como suele suceder con los grandes genios, se han tejido en torno a su muerte algunas leyendas; una de ellas, inspirada por Vasari, pretende que Leonardo, arrepentido de no haber llevado una existencia regido por las leyes de la Iglesia, se confesó largamente y, con sus últimas fuerzas, se incorporó del lecho mortuorio para recibir antes de expirar, los sacramentos. INVENTOS Y DISEÑOS Puede comprenderse la actitud de Ludovico del Moro, duque de Milán, quien permanecía más bien incrédulo ante tanta maravilla. Quiso tener a su lado a aquel inventor de apenas 30 años, y que ya suscitaba la fascinación de un mago; pero titubeó siempre antes de consentir en la realización de sus proyectos, por considerarlos irrealizables. La mayoría de los inventos de Leonardo Da Vinci no fueron llevados a la práctica por considerar que superaban las posibilidades de la técnica de la época, a pesar de que Leonardo estudió la mayoría de sus proyectos cuidando los detalles y resolviendo las dificultades de la construcción. Muchos de los diseños tienen de puño y letra del inventor, detallados planos y planes de trabajo para el taller que habría de encargarse de realizar el proyecto. Fue el primero en estudiar científicamente la resistencia de los materiales utilizados en las construcciones mecánicas, y de tales investigaciones se sirvió para establecer las secciones de las estructuras de sus máquinas. Se puede sacar la conclusión que la no realización de casi todos sus inventos se debe más a la audacia del proyecto que a las dificultades prácticas de la fabricación.

223

Los contemporáneos de Da Vinci no creían posible que máquinas semejantes pudieran existir. La profunda imaginación de Leonardo lo llevo a diseñar un gran número de máquinas ingeniosas, desde bélicas hasta instrumentos científicos y máquinas voladoras. A pesar de que únicamente los inventos militares fueron los que llevaron a sus patrocinadores a brindarle apoyo económico, él se las ingenió para desarrollar paralelamente principios básicos de ingeniería general. Toda su obra fue agrupada –por el mismo Leonardo- en los tres elementos: aire, tierra y agua. Entre sus inventos de aire encontramos, entre otros, la hélice aérea, precursora del helicóptero, la máquina voladora vertical, o el paracaídas, casi del mismo diseño que los actuales. Su obra de tierra se divide entre lo militar, en especial con la capacidad de multiplicar el poder del fuego: ametralladora, tanque militar o cureña de cañón y los diseños generales como los de un carro automotor, una grúa o una bicicleta, entre otros. modelo de bicicleta El agua ejerció en Da Vinci un especial atractivo. Su imaginación dio origen al doble casco de las embarcaciones, el puente giratorio o múltiples aparatos basados en el “tornillo de Arquímedes”, un mecanismo por el cual se podía movilizar el agua en contra de la fuerza de gravedad.

A continuación se muestran algunas de las invenciones de Leonardo.

Aire

Hélice Aérea Leonardo estaba fascinado por la forma helicoidal, muy común en la naturaleza, e involucrada en el principio de la hélice. Aplicando una variante del principio de
224

Arquímedes, su hélice aérea –un modelo a escala- antecede al helicóptero y a las hélices de nuestros días. Cuatro hombres apoyando los pies sobre la plataforma central debían hacer fuerza sobre las barras sujetas al palo vertical. De esta manera habrían hecho girar sobre sí mismo al inmenso y livianísimo “tornillo” de diez metros de diámetro, que se elevaría luego “enroscándose” en el aire.

Diagrama original

Maqueta

Esta máquina, lógicamente, no habría podido volar jamás, pero ofrece un concepto científicamente exacto. En el mismo principio se basan los modernos helicópteros, en los que la gran hélice horizontal obra exactamente como este tornillo, con la ventaja de actuar a una gran velocidad.

225

Máquinas voladoras Cautivado por la posibilidad de volar, Da Vinci diseñó varios dispositivos para ese fin que, aunque sin aplicación práctica inmediata, establecieron algunos principios de la aerodinámica. Entre las que ideó y esbozó se encontraba un “ornitóptero”, máquina diseñada para volar batiendo las alas, simulando los movimientos de un ave en vuelo. Los ornitópteros han despertado el interés de los entusiastas por la aviación desde hace cientos de años, en el transcurso de los cuales se han desarrollado distintos diseños.

Paracaídas Para Leonardo, el hombre podría dominar el vuelo. Pero también debería estar preparado para atenuar caídas. Concibió la idea del paracaídas, e indicó claramente sus dimensiones. Dejó escrito: “si un hombre dispone de un dosel de paño que tenga 12 brazos de cara por 12 de alto, podrá arrojarse de cualquier altura, sin hacerse daño.” Es por eso que experimento una serie de modelos con ese objetivo. Finalmente inventó este paracaídas, con un diseño familiar a los actuales. Fue probado con éxito desde una torre construida especialmente para ello.

Planeador Leonardo fue quien afrontó por primera vez el problema del vuelo e inventó una especie de aeroplano sin motor que sería capaz de volar sostenido por las corrientes de aire. Para ello se basó en un intensivo estudio sobre las alas de los murciélagos. Su máquina de volar funcionaba como un planeador, por lo que era incapaz de mantenerse mucho tiempo en el aire.

226

al tiempo que la propulsión proviene de dos muelles de espiral colocados en la parte baja del prototipo y que le permiten recorrer varios metros de forma autónoma. Está formado por un carro de madera con varios muelles ballesta para regular el movimiento. se ha podido construir un automóvil ideado hace más de cinco siglos por Leonardo da Vinci y capaz de recorrer varios metros. La máquina está dotada de un rudimentario diferencial. 227 . Este estudio fue muy importante en muchos de sus inventos. Engranajes Resultan casi obsesivos los estudios de engranajes en las anotaciones de Leonardo. que permite controlar la dirección.maqueta Tierra Automóvil Usando varios bocetos que dejó en uno de sus códices.

teniendo muchas aplicaciones en la tecnología moderna. ha mantenido importancia a través de los años. Ametralladora Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras. previó el empleo de numerosas bocas de fuego montadas sobre una única cureña y de pequeños proyectiles o explosivos que. El diseño se usó hasta bien avanzado el siglo XVIII.Además. cargados en un solo cañón. Gato Como el levantar grandes pesos constituye uno de los problemas más comunes de la ingeniería y mecánica. Construida con diez cilindros que pueden dispararse uno a uno o simultáneamente según la necesidad. Incluso en los planos se observa que el diseño de esta herramienta casi no ha sufrido variaciones. Leonardo Da Vinci dedicó mucho tiempo al diseño de dispositivos en los que aplicó los principios de la polea. se esparcirán después del disparo. El mismo diseño se utiliza hoy en día en los gatos para elevar automotores. Cañones 228 . no obstante el tiempo transcurrido.

y con capacidad de disparar tres cargas de once tiros consecutivos. diagrama original maqueta Cañón de vapor Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza de expansión del vapor de agua. que tuvieron una aplicación práctica sólo unos siglos después. el ingenioso dispositivo para la abertura del obturador en forma de tornillo cónico. 229 . La recarga de los cañones por la parte posterior (retrocarga) fue otro de sus geniales inventos. dotado de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio. Obsérvese en la ilustración.Esta máquina bélica ideada por Leonardo es un cañón de bocas múltiples.

Otros inventos de Leonardo en el campo de las armas de fuego fueron los proyectiles de punta ojival y el dispositivo para el encendido automático de la mecha en los arcabuces y en las pistolas. Tanque militar “Carro de asalto” proyectado por Leonardo hace cuatrocientos años. en el interior del mismo. a fin de que los proyectiles resbalasen por encima. al ser accionado con las manos. de unos 90 cm de largo. este invento fue aplicado enseguida. Este mecanismo. pondría en movimiento las paletas y lo haría navegar a velocidad considerable. Anticipo del tanque moderno. Este barco está dotado con un mecanismo de ruedas con paletas. daban vuelta a manivelas relacionadas con las ruedas mediante engranajes. Tal tipo de propulsión encontraría aplicación sólo tres siglos después con la navegación a vapor. Estaría provista de un revestimiento cónico. haciendo realizar a la rueda dentada (movida mediante una manivela) cincuenta vueltas por minuto la embarcación avanzaría a la velocidad de 50 millas por hora. 230 . Este carro (que según su creador “remplazaría a los elefantes en las batallas”) se movía con la fuerza de hombres que. Según sus cálculos. Agua Barco Barco con propulsión de paletas proyectado por Leonardo.

actuaban uno tras otro. Traje de Buzo Traje de buzo y aleta para aplicar a las manos para la natación submarina. el agua podía ser trasladada a un nivel más alto. El conjunto no es muy distinto de los que utilizan en la actualidad los hombres-rana. 231 . los flotadores de almacenaje. Los cubos. Es el mismo mecanismo que se utiliza en los actuales sistemas de irrigación. Este principio es idéntico al de las dragas modernas. base teórica del “tornillo sin fin”. mediante una serie de giros helicoidales.Draga También figura entre sus proyectos el de una draga lagunera. Estos estaban dispuestos de tal forma que permitían descargar automáticamente en un depósito especial. o palas excavadoras. el material recogido. Sistema de Irrigación Leonardo fue el primero en llevar a la práctica el Principio de Arquímedes. Una draga excavadora que se podía usar para la limpieza del fondo de los canales. Haciendo girar esta pieza.

traje aleta Las aletas son parecidas a las actuales “pata de rana”. Conclusión Personal Podemos concluir que Leonardo Da Vinci fue y será una de las mentes más brillantes de todos los tiempos. Leonardo Da Vinci II 232 . Leonardo proyectó asimismo una escafandra y un sumergible de doble casco. ya que se adelanto por mucho a la manera de pensar de su época. sólo que se usan en los pies y no en las manos.

por lo tanto estuvo interesado en todos los aspectos del saber. ya que sus ideas eran muy avanzadas para su tiempo. así pues dando pie a nuestro desarrollo. ya que a casi 500 años de su muerte no deja de intrigarnos. 233 . si no que la verdad era un genio por sus grandes inventos a nivel tecnológico que hoy en día se aplican en los más avanzadas técnicas ingenieriles.Este trabajo de investigación es muy importante a mi parecer para la historia de la humanidad ya que Da Vinci no solo se distingue por ser uno de los mejores pintores o escultores. Pero por el momento abordaremos solo y especialmente el notable interés de Leonardo Da Vinci hacia la ciencia y la tecnología. Por eso es que este tema resulta muy interesante solo por el simple o tal vez el extraordinario hecho de que Leonardo Da Vinci era un maestro en las artes y la ciencia.

[] Leonardo trabajó también con Antonio Pollaiuolo. Giorgio Vasari cuenta una anécdota sobre los primeros pasos en la carrera artística del gran artista: «un día. los nuevos inventos presentados ya fueran de él o de alguien mas.DESARROLLO. que tenía su taller muy cerca del de Verrocchio. Leonardo entró como aprendiz a uno de los talleres de arte más prestigiosos bajo el magisterio de Andrea del Verrocchio. El joven Leonardo era un amante de la naturaleza. viajaba muy a menudo en [] Florencia. realizó todo lo que se relacionaba con el arte del dibujo». ya que a Leonardo le fascinaba la guerra en el sentido físico. a partir de 1469. Verrocchio fue un artista de renombre. Andrea se sorprendió mucho de los extraordinarios dones de Leonardo y le recomendó a ser Piero que le dejara escoger este oficio. del inventor y del mundo que lo rodeó: Leonardo nació en Vinci. De formación era orfebre y herrero. y grandes esculturas como las estatuas ecuestres de Erasmo de Narni por Donatello y Bartolomeo Colleoni de Verrocchio. a finales de 1468.[] []En efecto. a quien debe parte de su excelente formación multidisciplinaria. no contento con ejercer este oficio. En su pueblo natal desarrollo el gusto por la pintura. Los encargos principales fueron retablos y estatuas conmemorativas para las iglesias. Actualmente vemos en guerras la tecnología de primer nivel que al paso del tiempo se ha ido desarrollando pero que comenzó hace 5 siglos durante la época de Leonardo da Vinci en el renacimiento italiano. como las creadas por Domenico Ghirlandaio para la capilla Tornabuoni. de manera que ser Piero resolvió que Leonardo entraría a trabajar en el taller de Andrea. escultor y fundidor. si no la dinámica. en la que se aproxima a otros artistas como Sandro Botticelli. Leonardo no se hizo rogar. la cual observaba con gran curiosidad y le interesaba. Fue así como. porque le gustaba plasmar la naturaleza que lo rodeaba. El interés bélico de Da Vinci nos habla de su persona. y. pero sus obras más grandes fueron frescos para las capillas.[] y muy ecléctico. donde su padre trabajaba. Actualmente Leonardo es mas conocido por sus hermosas y asombrosas pinturas que por otros aspectos de su vida como puede ser el de ingeniero militar. Perugino y Domenico Ghirlandaio.[ ]pero además fue pintor. Trabajó sobre todo para el poderoso Lorenzo de Médici. 234 . esto no quiere decir que le interesaran los asesinatos. ser Piero tomó algunos de sus dibujos y se los mostró a su amigo Andrea del Verrocchio y le pidió insistentemente que le dijera si Leonardo se podría dedicar al arte del dibujo y si podría conseguir algo en esta materia. Italia el 15 de abril de 1452 y murió en Amboise el 2 de mayo de 1519 a la edad de 67 años. Dibujaba caricaturas y practicaba la escritura especular en dialecto toscano. aunque Leonardo estaba empadronado como residente del municipio de Vinci.

De esta época deriva uno de sus primeros trabajos conocidos. Leonardo tuvo la oportunidad de aprender las bases de la química. Verrocchio abandonó la terminación de la obra cuando se sintió superado por la calidad del joven Leonardo. Según Vasari. a la edad de veinte años. de la metalurgia. recibió formación en habilidades como la preparación de los colores. Así. de acuerdo con la tradición de que era el aprendiz quien debía posar. Del mismo modo. del trabajo del cuero y del yeso.[] También. el Paisaje del valle del Arno o Paisaje de Santa Maria della neve (1473). incluso después de que su padre le ayudase a tener su propio taller. Al darse cuenta del talento excepcional que tenía Leonardo. En el año 1476 siempre aparece mencionado como ayudante de Verrocchio.[] Posteriormente. y mejoró la técnica del sfumato hasta un punto de refinamiento nunca conseguido antes de él.Después de un año dedicado a la limpieza de los pinceles y otras pequeñas actividades propias de un aprendiz. Paolo Toscanelli del Pazzo y Leonardoo Chernionese.[] No se conoce la existencia de ninguna obra de Leonardo durante la época en que trabajó con Verrochio. que dejó su toque magistral en un pequeño ángel presente en la obra. La formación recibida durante su aprendizaje en el taller de Verrochio va más allá y se extiende a otros ámbitos culturales. Estudió cálculo algorítmico y mostró el buen conocimiento que tenía citando a los dos abaquistas florentinos más relevantes. apareció registrado en el Libro rojo del gremio SintLucasgilde. de la mecánica y de la carpintería. Verrocchio inició a Leonardo en las numerosas técnicas que se practicaban en un taller tradicional. en este contexto. según la leyenda.[]Por otra parte. y que representa perfectamente el saber de estas escuelas de abaquistas. impresa en Venecia en 1484. el grabado y la pintura de los frescos. únicamente colaboró en una pintura llamada Bautismo de Cristo (1472-1475). una estatua en bronce. así como de diversas técnicas artísticas como el dibujo.[] Fue así como comenzó su carrera de pintor con obras ya destacables como La Anunciación (14721475). el célebre gremio de los artistas y doctores en medicina. él 235 . Verrocchio decidió confiarle a su alumno terminar algunos de sus trabajos.[] []Igualmente.[] En 1472. que en Florencia se agrupaba con la denominación de la "Campagnia de pittori". Leonardo mencionó la Nobel opera de arithmética de Piero Borgi. también se supone que es el retrato de Leonardo el que representa al arcángel Miguel en la obra Tobías y el ángel de Verrocchio. ya que. la pintura y la escultura sobre mármol y bronce.[] Leonardo habría servido de modelo para el David de Verrocchio. un dibujo hecho con pluma y tinta.

arquitecto.continuó colaborando con Verrocchio debido a que le profesaba un gran afecto. donde había una fuerte competencia entre varios pintores (como Miguel Ángel). probablemente decepcionado o humillado por no haber sido elegido por el papa Sixto IV para decorar la capilla Sixtina del Vaticano. ofreciendo sus servicios como ingeniero militar al duque de Milán. académica y pragmática como Milán.[] Durante este período.[] Probablemente en éste 236 . Su misma ambición lo traslado a Milán una ciudad sumamente bélica. recibió encargos personales y pintó su primer cuadro. el eje era un bloque que se deslizaba hacia atrás jalándolo con unas cuerdas y apoyado de un gran engranaje. inventor e ingeniero. Da Vinci aporto en Milán grandes ideas como: puentes móviles y barcos de asalto. se ofreció para levantar la iglesia octagonal de San Juan de Florencia. triunfando una vez más. que partía de una acusación anónima. los arcos estaban fabricados con madera fina bastante flexible. De esta manera se convirtió en un maestro pintor independiente. media 75X27 metros. práctica que en aquella época en Florencia era ilegal.[] Este documento. que en aquel tiempo estaba de moda en Florencia. pero Leonardo nunca acabó éste cuadro. Pienso que en cualquier época la movilidad y forma de distribuirse puede ser decisiva en un campo de batalla.[] Pronto Leonardo también destacó como ingeniero.[] El neoplatonismo. En 1481 el monasterio de San Donato le encargó la Adoración de los magos. En 1478. La Virgen del clavel (1476). Leonardo era un hombre de campo pero gracias a su ambición salió de ese ambiente para triunfar por sí mismo. Se dio cuenta que la manera más fácil de derrotar al enemigo era atemorizándolo mas no matándolo y varios de sus diseños partieron de este pensamiento: la ballesta gigante por citar alguno es uno de los mas intimidantes de todos. y fue cuando se alejó de lado de su maestro después de haberlo superado brillantemente en todas las disciplinas.[] En ese año Leonardo contaba con 26 años. no permite afirmar categóricamente que Leonardo fuera homosexual. se estreno en Florencia con su capacidad como pintor. en Roma. pudo desempeñar también un importante papel en la decisión de su marcha a una ciudad más abierta. pero todos fueron absueltos. El archivo judicial de este mismo año recoge el dato de que él y tres hombres más fueron acusados en un caso de sodomía.

Louvre). Milán). Cracovia). Mantua. Dama con armiño (1485-90. 237 . Milán). Este cuadro fue el origen de un conflicto entre el autor y los propietarios que duró varios años. Donde se ofrece a Ludovico Moro como arquitecto. refectorio de Santa María delle Gracie. dejó realizado un modelo de caballo de ocho metros que fue destruido en 1499. la Virgen. Leonardo trabajó en ella durante dieciséis años y. Participa en discusiones sobre la construcción de las catedrales de Milán y Pavía.[] El problema no se resolvió hasta que hubo decisiones judiciales y la intervención de algunos amigos. Durante sus diecisiete años de permanencia en Milán realiza las siguientes obras pictóricas: La Virgen de las rocas (1483-93. Museo del Louvre) y Venecia. Leonardo sabia que creando armas múltiples y móviles ganaría tiempo en la batalla así como el cariño y el respeto de su jefe y de sus contrincantes. Museo Czartoryski. La belle ferronniére (1490-95. creando complicados mecanismos que se utilizarán en fiestas. pero posteriormente se inició un problema legal con esto. que iría a la capilla San Francesco el Grande de Milán. Londres). fue el primero que comenzó a crear armas de fuego pero ninguna tan maravillosa e impresionante como el tanque blindado de Leonardo. Santa Ana.nuevo entorno estaba más en consonancia con su espíritu. Ludovico le encarga una estatua ecuestre de su padre. pintor y escultor. que se basaba en un desarrollo empírico de sus múltiples experimentos. pero esto no garantizaba que todos sus inventos funcionaran. Leonardo pintó La Virgen de las Rocas (1483-1486) para la confraternidad de la Inmaculada Concepción. siendo empleado como organizador de fiestas.[] Leonardo obtuvo el derecho de poder copiar la obra. aunque nunca fue fundida. o tal vez si funcionaban pero el problema estaba en que esa época no se contaba con el material adecuado para fabricarlos. ingeniero militar. Retrato de un músico (1485-90. Francesco Sforza. el Niño y San Juan Bautista (1498-99. Museo del Louvre). En 1499 cae el ducado de Milán tras el enfrentamiento con Luis XII de Francia. espectáculos y torneos. En pocas palabras Leonardo creaba. Leonardo se traslada a Vaprio. National Gallery. terminando con dos versiones de la obra. donde realiza el retrato de Isabel de Este (1500. La Santa Cena (1495-98. en grandes proporciones para situarla en la plaza del Duomo de Milán. bajo el servicio de César Borgia para quien realiza trabajos de ingeniería militar. Pinacoteca Ambrosiana.

La mayoría de los inventos de Leonardo Da Vinci no fueron llevados a la práctica por considerar que superaban las posibilidades de la técnica de la época. ninguno de estos inventos pasó del estadio del diseño. su excavadora flotante pretendía conseguir que los ríos fuesen navegables. instalado en una chimenea. vehículo accionado mediante una manivelas que utilizan la fuerza muscular. basado en el principio de la rueda de palas y en el aprovechamiento del calor residual. 238 . a pesar de que Leonardo estudió la mayoría de sus proyectos cuidando los detalles y resolviendo las dificultades de la construcción. desde un diseño para la fabricación de un helicóptero (modelo dotado de alas giratorias equipado con amortiguadores para conseguir un suave aterrizaje) o un vehículo automóvil hasta el común rallador de pan. una máquina para pulir espejos. pero haciendo que el motor sea movido por agua. duque de Milán.Puede comprenderse la actitud de Ludovico el Moro. pero titubeó siempre antes de consentir en la realización de sus proyectos. modernas puertas de batientes para las esclusas. fusiles de repetición y una grúa móvil que facilitaría las labores de construcción. consiguiendo elevar pesadas cargas. una máquina para fabricar maromas. máquinas de guerra tales como el carro blindado. que se hace funcionar mediante un motor de palas que. a pesar de que Leonardo no solo diseñaba extraordinarias máquinas sino que también se ocupaba de resolver todos y cada uno de los problemas relacionados con la construcción de las mismas. pechadoras de cardas para perchar el paño. gira a consecuencia de la ascensión de gases de combustión caliente. y dotado de una coraza en forma de cono. Como ingeniero. las embarcaciones sumergibles (submarinos) o los trajes para buzos de combate. son muchos los inventos atribuidos a Leonardo. por considerarlos irrealizables. quien permanecía más bien incrédulo ante tanta maravilla. máquinas para tallar tornillos y limas. su molino de aire caliente. El mismo sistema será utilizado en otra de sus máquinas. Es un precedente de los medidores de caudal inventados más tarde. Quiso tener a su lado a aquel inventor de apenas treinta años. Sin embargo. pasando por una práctica sierra para mármol. y que ya suscitaba la fascinación de un mago. ni fue utilizado.

a pesar de que solo los inventos militares fuero lo que lo llevaron a sus patrocinadores a brindarle apoyo el que se las ingenio para desarrollar paralelamente principios básicos de ingeniería general. Aire 239 . Se puede sacar la conclusión que la no realización de casi todos sus inventos se debe mas la audacia del proyecto que las dificultades practicas de fabricación los contemporáneos de Leonardo no creían posible que maquinas semejantes pudieran existir. agua y tierra.Muchos de los diseños de tienen de puño y letra del inventor detallados planos y planes de trabajo para el taller que habría de encargarse de realizar el proyecto. La profunda imaginación de Leonardo lo llevo a diseñar un gran numero de maquinas ingeniosas. Todas sus obra fueron agrupadas – por el mismo Leonardo.en lo tres elementos que son el aire. desde bélicas hasta instrumentos científico y maquinas voladoras. fue el primero en estudiar científicamente la resistencia de los materiales utilizados en las construcciones mecánicas. y de tales investigaciones se sirvió para establecer las secciones de las estructuras de sus maquinas.

e involucrada en el principio de la hélice.Hélice Diagrama de la hélice Leonardo estaba fascinado por la forma helicoidal.antecede al helicóptero y a las 240 . su hélice aérea -un modelo a escala. muy común en la naturaleza. Aplicando una variante del principio de Arquímedes.

hélices de nuestros días. La explicación de cómo funcionaba: el fue cuatro hombres apoyando los pies sobre la plataforma central debían hacer fuerza sobre las barras sujetas ala palo vertical. pero ofrece un concepto científicamente exacto ya que de seto están los helicópteros de la actualidad. de esta manera habrían hecho girar sobre si mismo al inmenso y livianísimo ¨tornillo¨ de diez metros de diámetro que se elevaría y luego se ¨enroscándose¨ en el aire. Maquinas voladoras 241 . Esta maquina lógicamente no hubiera podido volar jamás. pero con la ventaja de que la nueva hélice tiene mas velocidad.

Da Vinci diseñó varios dispositivos para ese fin que. este invento a despertado el interés de los entusiastas por la aviación desde hace cientos de años en el transcurso de los cuales se han desarrollado distintos diseños. aunque sin aplicación práctica inmediata. Entre la que ideo fue el ornitóptero maquina diseñada para volar batiendo las alas. establecieron algunos principios de la aerodinámica. simulando los movimientos de un ave en vuelo.Diagrama de una maquina voladora Cautivado por la posibilidad de volar. Paracaídas Diagrama del paracaídas 242 .

Para Leonardo el hombre podría dominar el vuelo. Es por ello que experimento una serie de modelos con ese objetivo. e indico claramente sus dimensiones. fue probado con éxito desde una torre construida especialmente para ello. podrá arrojarse de cualquier altura. pero también debería estar preparado atenuar una caída. Dejo escrito en uno de sus bocetos: ¨si un hombre dispone de un dosel de de puño que tenga 12 brazos de cara por 12 de alto. finalmente invento este para caídas. sin hacerse daño¨. con un diseño similar a los actuales. concibió la idea del paracaídas. Bueno ahora damos paso a uno de los más grandes inventos de Da Vinci o el más importante según de donde lo veas: Planeador 243 .

Diagrama del planeador Leonardo fue el primero en afrontar por primera vez el problema del vuelo e invento una especie de aeroplano sin motor que seria capaz de volar sostenido por las corrientes de aire. su maquina de volar funcionaba como un planeador. Para ello se baso en un intenso estudio sobre las alas delos murciélagos. por lo que era incapaz de mantenerse mucho tiempo en el aire. Tierra Bueno ahora siguen inventos terrestres: Automóvil 244 .

al tiempo que la propulsión proviene de dos muelles de espiral colocados en la parte baja del prototipo y que le permiten recorre varios metros de forma autónoma. que permite controlar la dirección. Este invento esta formado por un carro de manera con varios muelles ballesta para regular el movimiento. La maquina esta dotada de un rudimentario diferencial. se ha podido construir un automóvil ideado hace más de cinco siglos por Leonardo da Vinci y capaz de recorrer varios metros.Diagrama del automóvil Usando varios bocetos que dejó en uno de sus códices. Engranajes 245 .

ha mantenido importancia a través de los años. Además. este estudio fue un paso importante en muchos de sus inventos. teniendo en la tecnología ya que es la base de muchas maquinas modernas para su funcionamiento.DD Diagrama de una maquina de engranaje Resultan casi obsesivos los estudios de los engranajes en las anotaciones de Leonardo. Grúa 246 .

montada sobre una plataforma de rodillos. la grúa giratoria inventada por nuestro gran creador. Y pues ahora son los invento terrestres pero con sentido bélico ya que nuestro amigo Da Vinci era un gran fan de esto pero como ya mencionado antes era mas apoyado en esto que en lo demás.Diagrama de una grúa De este no hay mucho de que se baso pero si nos dice como era y como estaba colocada. de esto mismo se basaron para crear la grúas modernas pero con mas avance tecnológico. 247 . esta provista de una caja de contrapeso y de un cabestrante dotado de un freno dentado.

se esparcirán después del disparo.Ametralladora Diagrama de la ametralladora Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras. Esta construida con diez cilindros que pueden dispararse uno a una o simultáneamente según la necesidad. cargados en un solo cañón. previó el empleo de numerosas bocas de fuego montadas sobre una única cureña y de pequeños proyectiles o explosivos que. 248 . este diseño se uso hasta bien avanzado el siglo XVIII que fue evolucionando hasta la que podemos ver ahora.

Cañones Diagrama original Esta maquina bélica ideada por Leonardo es un cañón de bocas múltiples. mientras se dispara la segunda y se enfriaba la tercera. Dispara una serie. Cañón de vapor 249 . dotado de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio y con capacidad para disparar tres cargas de once tiros consecutivos. se podía recargar la primera y así sucesivamente el poder de fuego.

Otros inventos de Leonardo en el campo de las armas de fuego fueron los proyectiles de punta ojival y el dispositivo para el encendido automático de la mecha en los arcabuces y en las pistolas Tanque militar Diagrama original Carro de asalto proyectado por Leonardo hace 400 años. La carga de los cañones por la parte posterior fue otro de sus geniales inventos. Estaría provista de un revestimiento cónico. a fin de que los proyectiles resbalasen por encima. que tuvieron una aplicación práctica siglos después.Figura Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza de expansión del vapor de agua. Este carro según su creador ¨ reemplazaría a los elefantes 250 . anticipo del tanque moderno.

se movía con la fuerza de hombres que. Este mecanismo al ser accionado con las manos. Con esto damos fin a los inventos de que se basan en la tierra y ahora los siguientes son lo del Agua. haciendo realizar la rueda dentada cincuenta vueltas por min la embarcación avanzaría a la velocidad de 50 millas por hora. Según sus cálculos.en las batallas¨. en el interior. pondría en movimiento las paletas y lo haría navegar a la velocidad considerable. Draga 251 . Agua Embarcación Diagrama original Barco dotado con un mecanismo de ruedas con paletas de 90 cm de largo. daban vuelta alas manivelas relacionadas con las ruedas mediante engranajes.

el material recogido. Una draga excavadora que se podía usar para la limpieza del fondo de los canales. actuaba una tras otra. Los cubos o Palas excavadoras. estas estaban dispuestas de tal forma que permitían descargar automáticamente en un depósito especial. Este principio es idéntico al de las dragas modernas. los flotadores de almacenaje. Sistema de irrigación 252 .D Diagrama original También figura en sus inventos una draga lagunera.

Haciendo girar esta pieza el agua podía ser trasladada a un nivel más alto.Leonardo fue el primero en llevar a la practica el principio de Arquímedes base teórica del tornillo sin fin. Traje de buzo 253 . mediante una serie de giros helicoidales.

Estos son algunos de los inventos de nuestro amigo el inventor mas importantes entre los elementos ya que con base ha esto se desarrollaron los inventos que en nuestra actualidad son muy necesarios para la humanidad ya que algunos son medios de transporte. Pero el latín. ni tampoco por el del razonamiento intelectual que bebe exclusivamente del saber de los autores anteriores. era iletrado. No fue escolástico ni se confió a ciegas a la autoridad de los autores clásicos. Su educación había sido otra: de niño le enseñaron simplemente a leer y escribir y a echar cuentas. solo que se usan en los pies En lugar de las manos. como hicieron muchos hombres del Renacimiento. única vía de acceso en esos momentos a los estudios humanistas. Las aletas son parecidas a las actuales ¨pata de rana¨. porque. pero no aspiraba a llegar a él por el camino del estudio de la revelación. lo aprendió. Ignoraba el latín. globalizante. efectivamente. como los escolásticos y los teólogos de los siglos precedentes.Proyecto de escafandra llamado así por Leonardo Da Vinci Traje de buzo y aleta para aplicar a las manos para la natación submarina. sistemas para tener un control ya sea para el agua o ciertos materiales par la existencia de la humanidad. y 254 . Leonardo aspiraba al conocimiento total. Él mismo se definía como un "uomo senza lettere".

Leonardo no escribió tratados metodológicos. pero en sus cuadernos de apuntes nos dejó esparcidas sus ideas. Ese es el método que hay que seguir en todas las investigaciones sobre los fenómenos de la Naturaleza" "Hemos de consultar a la experiencia en una diversidad de casos y circunstancias hasta que podamos extraer de ellos una regla general que en ellos se contenga. mostrando luego por qué los cuerpos se ven obligados a actuar de ese modo. se basa en la observación. la geometría y la aritmética. Previó el principio de inercia. vio la imposibilidad experimental del "movimiento continuo 255 . ¿Para qué son útiles estas reglas? Nos conducen a ulteriores investigaciones sobre la Naturaleza y a las creaciones artísticas. Pensaba que la mecánica era la más noble de las ciencias "puesto que vemos que por medio de ella realizan sus acciones todos los cuerpos animados que poseen movimiento". pueden llegar a la certeza absoluta dentro de su propio ámbito. que estudió tarde. la verdadera ciencia (refiriéndose a las ciencias empíricas). Este es uno delos tantos pensamientos que daba antes de empezar según el inspirarse: "Al abordar un problema científico. En sus apuntes. Nos impiden engañarnos a nosotros mismos o a los demás prometiéndonos resultados que no se pueden conseguir". pero no como objetivo final. uno de los pasos fundamentales del método científico. que después Galileo demostró experimentalmente. dispongo primero diversos experimentos. Podemos ver en estos textos una clara definición de los procesos de inducción y deducción que hoy explicamos en nuestras clases de Física o Filosofía. siendo ya un hombre maduro. Leonardo comprendió y utilizó el auténtico método experimental un siglo antes de que Francis Bacón filosofase sobre él. Dice que las matemáticas. El conocimiento de los escritores antiguos tenía su utilidad como base. "No hay certeza en la ciencia si no se puede aplicar una de las ciencias matemáticas". y lo mismo le ocurrió con las matemáticas.por sus propios medios. cuando las encontró necesarias para seguir avanzando. si pudiera aplicarse a ella el razonamiento matemático podría lograrse mayor grado de certeza. Sólo admitía como verdaderos métodos científicos la observación de la naturaleza y la experimentación. y antes de que Galileo lo pusiese en práctica. ya que pretendo determinar el problema de acuerdo con la experiencia. siendo hoy en día. Leonardo dejó constancia de la importancia que concede al método en la investigación (adelantándose a autores de la Modernidad tales como Descartes) y los preceptos que establece en su método en nada difieren de las modernas definiciones que hoy utilizamos para hablar del método científico. En cambio. pues manejan conceptos mentales ideales de valor universal.

También se metió con la hidrodinámica. Trataba de vincular la arquitectura y el cuerpo humano. adelantándose en esto a Steven de Brujas. El cuadrado es la base de lo clásico: el módulo del cuadrado se emplea en toda la arquitectura clásica. de mecánica y de sus aplicaciones en arquitectura civil e ingeniería militar. que la Tierra refleja la luz del sol igual que la luna. Venecia o la de Cesare Cesarino en 1521. Resucitó Leonardo las ideas de Arquímedes sobre la presión de los fluidos y demostró que los líquidos mantienen el mismo nivel en vasos comunicantes. el canon clásico o ideal de belleza. Vitrubio tuvo escasa influencia en su época pero no así en el renacimiento ya que fue el punto de partida de sus intentos y la justificación de sus teorías. sus alturas de nivel serán inversamente proporcionales a sus densidades. Milán. Parece indudable que Leonardo se inspiró en el arquitecto romano. adelantándose a la moderna teoría ondulatoria de la luz. De las olas en el agua pasó a las ondas del aire y a las leyes del sonido. un aspecto de su interpretación de la naturaleza y del lugar de la humanidad en el "plan global de las cosas". etc. de cuadrantes solares. Aprovechó el conocimiento de esta imposibilidad para demostrar la ley de la palanca por el método de las velocidades virtuales. el uso del ángulo de 90º y la simetría son bases grecolatinas de la arquitectura. a quien Julio Cesar encarga la construcción de máquinas de guerra. El hombre de Vitrubio es un claro ejemplo del enfoque globalizador de Leonardo que se desarrolló muy rápidamente durante la segunda mitad de la década de 1480.c. propagación de las olas sobre la superficie. que trata de la construcción hidráulica. Leonardo da Vinci realiza una visión del hombre como centro del Universo al quedar inscrito en un círculo y un cuadrado. Su obra fue publicada en Roma en 1486 realizándose numerosas ediciones como la de Fra Giocondo en 1511. dedicada a Francisco I. un principio que ya enunciaba Aristóteles y que utilizaron más tarde Bernardino Baldi y Galileo. y que si se llenan ambos vasos con líquidos diferentes. lo cual constituía en sí un avance sobre las ideas de Aristóteles sobre las esferas etéreas. Afirma Leonardo que la tierra es uno de tantos astros y promete demostrar en el libro que proyecta escribir. Escape de agua por los orificios.“como fuente de energía. En él se realiza un estudio anatómico buscando la proporcionalidad del cuerpo humano. Sigue los estudios del arquitecto Vitrubio (Marcus Vitruvius Pollio) arquitecto romano del siglo I a. En época de Augusto escribió los diez tomos de su obra De architectura. En este dibujo representa las proporciones que podían establecerse en 256 . En el campo de la astronomía concibió una máquina celeste ajustada a determinadas leyes. su corriente por canal.

que más tarde absorbe a ARPANET. el hombre era el modelo del universo y lo más importante era vincular lo que descubría en el interior del cuerpo humano con lo que observaba en la naturaleza. Para Leonardo. En plena guerra fría. creando así una gran red con propósitos científicos y académicos. y cualquier persona con fines académicos o de investigación podía tener acceso a la red. Esta red se creó en 1969 y se llamó ARPANET.el cuerpo humano (por ejemplo. La NSF (National Science Fundation) crea su propia red informática llamada NSFNET. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Dos años después. y se crean nuevas redes de libre 257 . Entonces dos investigadores crearon el Protocolo TCP/IP. Estados Unidos crea una red exclusivamente militar. con el objetivo de que. ARPANET siguió creciendo y abriéndose al mundo. en el hipotético caso de un ataque ruso. En principio. que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo). El desarrollo de las redes fue abismal. la proporción áurea). Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET. Internet Los inicios de Internet nos remontan a los años 60. se pudiera tener acceso a la información militar desde cualquier punto del país. ya contaba con unos 40 ordenadores conectados. la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. una nueva red creada por los Estados Unidos.

El contenido se programaba en un lenguaje de hipertexto con "etiquetas" que asignaban una función a cada parte del contenido. Ese intérprete sería conocido como "navegador" o "browser". etc. jabber). P2M. un programa de computación. La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. En 1985 la Internet ya era una tecnología establecida. correo electrónico (SMTP). descarga directa). que permitió acceder con mayor naturalidad a la WWW. transmisión de archivos (P2P.000 servidores. En el Centro Europeo de Investigaciones Nucleares (CERN). ICQ. En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic". Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. En ese tiempo la red era básicamente textual. A partir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación. El autor William Gibson hizo una revelación: el término "ciberespacio". así que el autor se baso en los videojuegos.acceso que más tarde se unen a NSFNET. aunque conocida por unos pocos. eran capaz de leer esas etiquetas para despegar la información. Poco después Andreesen encabezó la creación del programa Netscape. Con el tiempo la palabra "ciberespacio" terminó por ser sinónimo de Internet. convirtiéndose en lo que hoy todos conocemos. Robert Caillau quien cooperó con el proyecto. Luego. un intérprete. Justificación. Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú”) de usar hipervínculos. Yo elegí este tema porque todos hacemos uso de las diferentes aplicaciones del internet sin saber como fue creado incluso no nos preocupamos en mejorarlo sin no exigimos a las empresas que difunden el internet mayor velocidad sin saber lo que esto implica. La nueva formula permitía vincular información en forma lógica y a través de las redes. AOL. conversaciones en línea (IMSN MESSENGER. El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100. cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamaron World Wide Web (WWW) o telaraña mundial. YIM. Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso remoto a otras máquinas (SSH y telnet). formando el embrión de lo que hoy conocemos como INTERNET. transferencia de archivos (FTP). 258 .

que asigna direcciones de Internet. etc. Internet tiene varios cuerpos administrativos: • Internet Archite curte Board. que supervisa tecnología y estándares. los comerciantes difunden sus productos vía internet. que asigna los números para los accesos.Hoy en día utilizamos el internet para todo. que permite enviar un mensaje desde un ordenador a una aplicación que se ejecuta en otro ordenador. y CREN). • También: Internet Engineering and Planning Group. 259 .Es una combinación de hardware (ordenadores interconectados por vía telefónica o digital) y software (protocolos y lenguajes que hacen que todo funcione). Internet Engineering Steering Group. NSFNET. Hay unos seis millones de ordenadores que utilizan Internet en todo el mundo y que utilizan varios formatos y protocolos Internet: • Internet Protocol (IP): protocolo que se utiliza para dirigir un paquete de datos desde su fuente a su destino a través de Internet. • Transport Control Protocol (TCP): protocolo de control de transmisión. • Internet Assigned Numbers Authority. que se utiliza para administrar accesos. de hecho se puede trabaja r desde la comodidad de tu hogar vía internet.. • InterNIC. Es una infraestructura de redes a escala mundial (grandes redes principales (tales como MILNET. y redes más pequeñas que conectan con ellas) que conecta a la vez a todos los tipos de ordenadores. y la Internet Society. lo cual hace a este tema muy interesante Internet. • User Datagram Protocol (UDP): protocolo del data grama del usuario.

del Massachussets Institute of Technology. el concepto era muy parecido a la Internet actual. lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. Licklider. pero que el sistema telefónico de conmutación de circuitos era totalmente 260 . Los inventos del telégrafo. Mientras trabajó en DARPA convenció a sus sucesores Iván Sutherland.Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Para explorar este terreno. El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). Roberts de la importancia del concepto de trabajo en red. en 1965. teléfono. un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos. En esencia. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente. Roberts conectó un ordenador TX2 en Massachussets con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad.C. radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. ejecutando programas y recuperando datos a discreción en la máquina remota. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962.R. y el investigador del MIT Lawrence G. Luego de su creación fue utilizado por el gobierno. Internet es a la vez una oportunidad de difusión mundial. en Agosto de 1962. Orígenes de Internet La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J. universidades y otros centros académicos. Bob Taylor. creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes.

después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET. en 1964. Ocurrió que los trabajos del MIT (1961-67). A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET. DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interfase message processors (IMPs. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar. Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global. procesadores de mensajes de interfaz).inadecuado para esta labor. su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California. en Los Angeles (6). En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo.4 Kbps hasta 50 Kbps (5). Todo ello ocurrió en Septiembre de 1969. El SRI patrocinó el Network Information 261 . La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2. El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart. la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation. A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis. de Bolt Beranek y Newman (BBN). La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. diseño y medición. El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS. En Agosto de 1968. cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host. publicándolo en 1967. RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás.

así como software adicional de red. liderado por Elizabeth (Jake) Feinler. y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar. En Marzo. En Julio. almacenar. Un mes más tarde. cuatro ordenadores host fueron conectados conjuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. Santa Bárbara. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red. escribió el software básico de envíorecepción de mensajes de correo electrónico. Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Comunicatión Conference. hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.Center. Así. cuando el SRI fue conectado a ARPANET. Esta tradición continúa hasta el día de hoy. Desde 262 . Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72. En Octubre de 1972. llamado Network Control Protocol (NCP. Ray Tomlinson. En Diciembre de 1970. Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo. leer selectivamente. a finales de 1969. impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. protocolo de control de red). Se añadieron dos nodos en la Universidad de California.Crocker acabó el protocolo host a host inicial para ARPANET. con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. de BBN. del T. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones. reenviar y responder a mensajes. y en la Universidad de Utah. el Network Working Group (NWG) liderado por S. Esta fue la primera demostración pública de la nueva tecnología de red. el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs (Request For Comments). Incluso en esta primitiva etapa.

la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internet working (trabajo entre redes). redes de paquetes por radio y otros tipos de red. las interconexiones de propósito especial entre redes constituían otra posibilidad. incluyendo otros proveedores de Internet. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. En una red de arquitectura abierta. Internet como ahora la conocemos encierra una idea técnica clave. Este trabajo fue 263 . Era el tradicional método de conmutación de circuitos. Conceptos iniciales sobre Internet La ARPANET original evolucionó hacia Internet. las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz. Bajo este enfoque. que puede ofrecer a los usuarios y/u otros proveedores.entonces. Internet se basó en la idea de que habría múltiples redes independientes. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. de diseño casi arbitrario. Hasta ese momento. había un sólo método para "federar" redes. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web . éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo). Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. empezando por ARPANET como la red pionera de conmutación de paquetes. Juntamente con la conmutación de paquetes. pero que pronto incluiría redes de paquetes por satélite. la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico. es decir. la de arquitectura abierta de trabajo en red. Y aunque había otros métodos limitados de interconexión de redes distintas. del enorme crecimiento de todas las formas de tráfico persona a persona. aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido.

NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. El protocolo podría eventualmente ser denominado "TransmissonControl Protocol/Internet Protocol" (TCP/IP. BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. En este modelo. Ideas a prueba DARPA formalizó tres contratos con Stanford (Cerf). Partiendo de las tres primeras redes ARPANET. produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían ínter operar. pero más tarde se convirtió por derecho propio en un programa separado. radio y satélite y de sus comunidades de investigación iniciales. protocolo de control de transmisión /protocolo de Internet). el nuevo protocolo sería más bien un protocolo de comunicaciones. el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia 264 . dirigido por Cerf. el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s. Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. el programa fue llamado Internetting. Si alguno de los paquetes se perdía. Sin embargo. Así como el NCP tendía a actuar como un drive (manejador) de dispositivo. el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Entonces.originalmente parte de su programa de paquetería por radio. El equipo de Stanford. Así. La premisa era que ARPANET no podía ser cambiado en este aspecto.

y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. La desarrollaron. a escala nacional (pocas redes con muchos ordenadores). La clase A representa a las redes grandes.ati. pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal. se produjo un cambio de gran importancia para la red y su gestión. hubo que definir tres clases de redes (A.acm. La tecnología Ethernet. y demostraba que las estaciones de trabajo. primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox). Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. y luego para el PC de IBM.es) en direcciones de Internet. TCP era demasiado grande y complejo como para funcionar en ordenadores personales. Esta implementación operaba con otras de TCP. la clase B representa redes regionales. B y C) para acomodar todas las existentes. PC y estaciones de trabajo permitió que la naciente Internet floreciera. podían ser parte de Internet. Originalmente había un número muy limitado de máquinas. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo. Cuando aparecieron los ordenadores de sobremesa (desktop).comunidad de investigación y desarrollo [REK78]. En los años 80. www. En primer lugar. El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo. el desarrollo de LAN. las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. Cada expansión afrontó nuevos desafíos. 265 . por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas. al igual que los grandes sistemas. por último. Como resultado del crecimiento de Internet.org o www. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. es la dominante en Internet. El cambio que supone pasar de unas pocas redes con un modesto número de hosts (el modelo original de ARPANET)) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología. desarrollada por Bob Metcalfe en el PARC de Xerox en 1973. Esto llevó a la invención del DNS (Domain Name System. la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).

pero fue sorprendentemente sobre 266 . Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix. A medida que evolucionaba Internet. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix. BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet. también lo hacía el tamaño de la tablas de direccionamiento. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión. velocidad de configuración. Visto en perspectiva. incorporando el TCP/IP desarrollado en BBN. Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora. El diseño permitía que distintas regiones utilizaran IGP distintos. La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha. podían ajustarse a cada situación. protocolo externo de pasarela) usado para mantener unidas las regiones. protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP (Exterior Gateway Protocol. robustez y escalabilidad. por lo que los requisitos de coste. Classless Interdomain Routing. el diseño inicial no era ya capaz de expandirse.El incremento del tamaño de Internet resultó también un desafío para los routers. por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP (Interior Gate way Protocol. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR. se fue convirtiendo en uno de sus mayores desafíos. enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento. A medida que el número de redes en Internet se multiplicaba. la propagación de los cambios en el software. Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. especialmente el de los host s.

y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP"). La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación. El Departamento norteamericano de Energía (DOE. Así. en 1985. mientras que los físicos de altas energías fueron los encargados de construir HEPNet. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS (National Science Foundation. Los físicos de la NASA continuaron con SPAN y Rick Adrion. a menudo entre distintos sistemas. La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET. TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. El correo electrónico se empleaba ampliamente entre varias comunidades. que unía los ordenadores centrales del mundo académico siguiendo el paradigma de 267 . en 1980. Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas. La transición hacia una infraestructura global Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. Fundación Nacional de la Ciencia) de Estados Unidos. basada en los protocolos de comunicación UUCP de Unix. Deparment of Energy) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión.

Se adoptaron varias políticas y estrategias para alcanzar estos fines. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. de ahí las escasas presiones por hacer estas redes compatibles y.correo electrónico como "postales". 268 .000 redes en los cinco continentes y en el espacio exterior. y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF. De hecho. En su vida de ocho años y medio. junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB. estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos. Comité de Actividades de Internet). en consecuencia. estaban empezando a proponerse tecnologías alternativas en el sector comercial. y la SNA de IBM (8).Había visto crecer Internet hasta alcanzar más de 50. Con la excepción de BITNET y USENET. Es decir. DECNet. Además. una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus". todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB (Internet Activities Board. el hecho de que durante mucho tiempo no lo fueran. En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb. como XNS de Xerox. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general. con aproximadamente 29.000 redes en los Estados Unidos.

Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP. Las RFC son 269 . Pero cuando el FTP ( File Transfer Protocol . entonces en UCLA. SRI. el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación. Con el paso del tiempo. las RFC fueron impresas en papel y distribuidas vía correo "lento". petición de comentarios). en su papel como Centro de Información en la Red. En 1969 S. Al principio. Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. mantenía los directorios online. dio un paso clave al establecer la serie de notas RFC (Request For Comments. están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos.Crocker. especialmente a las especificaciones de los protocolos. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. El papel de la documentación Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos. desde luego. Hoy en día. tareas en las que continúa hoy en día. TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información. las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales. El efecto de las RFC era crear un bucle positivo de realimentación. esencial para crear redes.aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. cuando la propia ARPANET se disolvió.El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990. protocolo de transferencia de ficheros) empezó a usarse. Sin embargo.

Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet. Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos. y continúan siendo una herramienta importante. El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet.promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. independientemente de su localización. El futuro: Internet 2 Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores. deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC.vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet. Después de empezar a usarse el correo electrónico. cada uno dedicado a un aspecto distinto de la ingeniería en Internet. ¿Qué es Internet del Futuro? Al nombre “Internet del Futuro” se asocian una serie de conceptos y 270 . éste puede ser distribuido como una RFC. estándares técnicos e ingeniería en Internet. lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos. el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común. El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda. Sus objetivos están enfocados a la educación y la investigación académica. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información. Cuando se alcanza el consenso en el documento. El IETF tiene ahora más de 75 grupos de trabajo.

Entre estos temas. ¿Qué hace Atos Origen en Internet del Futuro? Atos Origin participa activamente en la definición y construcción de Internet del Futuro mediante la participación activa en la iniciativa europea que une los esfuerzos de las plataformas tecnológicas europeas NESSI (http://www.org/). y EPOSS (http://www.0. el uso de Contexto.org/): Plataforma que integre Arquitecturas Orientadas a Servicios (SOA). sobre la que 271 . la Web Semántica o la llamada Web 2.org). dispositivos e interfaces. Y además Atos Origin es miembro fundador de la plataforma tecnológica española es Internet. software y aplicaciones que compondrán lo que en unos años conformará el panorama de las Tecnologías de Información y Comunicaciones.coin-ip.nexof-ra.nessi-europe.isi-initiative.eu/): Colaboración e interoperabilidad entre empresas. eMOBILITY (www. con nuevas formas de interaccionar con el mundo digital.emobility.tecnologías que abarcan desde la infraestructura de red. y todo eso soportado por innovadores modelos de negocio adaptados a este nuevo panorama. acceso fácil e inteligente a los distintos tipos de contenidos con mención especial a 3D.eu/): Arquitectura de referencia para la comunidad de Software & Services en Europa.org/) en la definición de una agenda estratégica de investigación. mediante nuevos dispositivos.neminitiative. ISI (http://www. Atos Origin está también presente en la Future Internet Assembly (a través de diferentes proyectos del 6º y 7º programa marco). aparece la red de redes de gran velocidad y llegando a todas partes. • SOA4ALL (http://www. NEM (http://www. y ostenta actualmente la vicepresidencia Algunos proyectos de I+D participados por la Comisión Europea en Internet del Futuro son: • COIN (http://www. • NEXOF-RA (http://www.smartsystems-integration.soa4all. desde la tradicional cadena de proveedores al ecosistema más avanzado.org/).com/).eu.

así como herramientas para mejorar la eficacia de la monitorización.crear y distribuir aplicaciones basadas en servicios ( Internet de los Servicios). • SARACEN: Definición de una plataforma colaborativa y social de próxima generación para la codificación y distribución de contenidos de media Las prioridades de Atos Origin en Internet del Futuro son: • Sanidad: aplicaciones TIC más interactivas. 272 . en el nuevo escenario que surge del creciente uso de SOA por parte de las empresas en sus infraestructuras IT y especialmente en el outsourcing de servicios. • COCKPIT: Colaboración de los ciudadanos en la creación de contenidos de servicio público. seguimiento y tratamiento remoto (fuera del hospital). gestión de derechos digitales. desarrollo de comunicaciones IP para la transmisión de contenidos.myedirector2012. • Master (http://www. principalmente de enfermos crónicos y pacientes mayores. fotos/videos de tráfico….eu/): Usos de contexto en tiempo real junto con contextos personalizados de provisión de contenidos para aplicaciones audiovisuales a gran escala. • My eDirector (http://www.eu/): Metodología y herramientas necesarias para asegurar el cumplimiento de los requisitos de seguridad. infraestructura para Media Market (imágenes médicas.). • NextMedia: Coordinar los esfuerzos europeos en Media hacia el Internet del Futuro. • Multimedia: gestión y búsqueda de activos. y enfocadas en la prevención.master-fp7.

Debido a que últimamente no se publican muchas noticias en el sitio. Como consecuencia 273 .. Estos últimos días estuve compartiendo ideas con un amigo de cómo evoluciona la informática e Internet comparándola. Internet de las Cosas. más aún en los últimos días en que se está debatiendo la forma de registro en esta comunidad. Consideren las siguientes líneas como un “juego” intelectual.. sostenibilidad y medio ambiente Decía el filósofo que un hombre libre es aquel que es capaz de ir hasta el final de su pensamiento. • Finanzas: Seguridad en la transmisión de información bancaria personal entre las distintas entidades o centros. en general. limpieza y para impulsar el turismo. Y de esto sabemos mucho en Kriptópolis. • Internet para todos: Nuevos interfaces. con las redes militares y servicios de inteligencia.• Industria: Desarrollo de aplicaciones TIC para facilitar y optimizar el tráfico de vehículos en las ciudades y el transporte de materiales. mejorar la gestión del consumo de luz. salvo las aportadas por el editor. Por todos es sabido el origen militar de la red de redes y cómo estas ideas iniciales pasaron al mundo civil lentamente a través de diferentes Universidades y pequeñas (entonces) empresas. me gustaría compartir con los lectores una reflexión. apoyo a minorías. agua. con el objetivo facilitar el desarrollo de Internet del Futuro a nivel transaccional • Administración Electrónica (eGov): Internet para el ciudadano • Internet en todas partes:: Apoyo al desarrollo rural y equilibrio geográfico.

con la implantación de la tan de moda Web semántica. Este programa informático. Esta tecnología.418. a mi entender. 274 . La oficina de patentes norteamericana le otorgó el número 5. ya a finales de los años 70 diferentes elementos de la red filtraban información buscando palabras claves relacionadas entre sí. por ejemplo.dejarán de funcionar por algún “accidente”. la definitiva. por ejemplo. desde el punto de vista civil. Me gustaría ver cómo funcionarían las conexiones de Internet si ciertos Puntos de Interconexión -por ejemplo.951. la patente adquirida por la NSA en 1999 de una “máquina de trascripción del habla” (patente número 5. Negar esto.422). parece que esta tecnología no fue.clara de esta separación. en cierta medida. semejanzas extraídas de los datos que se publican (supongo verdaderos) de redes privadas secretas. como la red de inteligencia “Interlink”. en España. de cómo evolucionará la informática y la red de redes en un futuro. Considerando los presupuestos y la importancia de las mismas. comenzó a implantarse de forma masiva en Internet durante la década de los 90. es como seguir pensando que Internet es una red descentralizada. Por ejemplo. O incluso. basado en un método denominado “análisis de N-gramas” se define como independiente del “idioma o tema de interés” y no “emplea diccionarios o palabras clave”. la red militar como tal continuó su evolución. no es extraño creer (al menos) en la tan conocida cifra de 10 años de diferencia en cuestión de tecnología civil y militar. Sin embargo. Esto se puede comparar fácilmente con las posibilidades actuales de los buscadores más modernos y. Estos razonamientos se pueden extender a multitud de campos. en la red Echelon la NSA comenzó a probar un prototipo de buscador temático para el que solicitó una patente a principios de la década de los 90. En cualquier caso. el análisis cuidadoso de ciertos sistemas de inteligencia nos dará una idea clara. para nada.937. a los sistemas de reconocimiento de voz de las redes de inteligencia y los diferentes programas de reconocimiento de voz que un usuario puede adquirir en una tienda. Se puede ver. Si nos centramos en los orígenes de la gran red de inteligencia Norteamérica “Platform” (no entraré en disquisiciones de la evolución de los diferentes nombres de esta red y si la red “Echelon” como tal es un elemento más de la gran red de inteligencia). Proceso conocido por todos si pensamos en la esencia del funcionamiento de los motores de búsqueda (buscadores) de páginas Web.

alumbran un nuevo tipo de Internet. • El impacto sobre las personas se considera positivo pero se alerta sobre la posibilidad de perder buena parte de la privacidad. llamado Internet Cuántico. • El inglés seguirá dominando la Red. Hasta el 42% de los encuestados se muestra pesimista acerca de nuestra capacidad para controlarla. equivalente a la memoria RAM de nuestras computadoras. Esta desconexión del mundo real podría acarrear numerosos problemas. Dicho estudio se basa en un cuestionario realizado por 742 expertos y éstas son alguna de sus conclusiones: extenso informe • La Red será un negocio próspero y de bajo costo • La dependencia de la tecnología podría convertirse en un problema. De esta forma. De acuerdo a sus desarrolladores. esta tecnología le brindará a Internet un potencial de crecimiento ilimitado sin "pérdidas" en la transferencia de información ni en la velocidad. • Emergerán grupos contrarios a la Red —“refuseniks”— que podrían llegar a utilizar medios violentos para atacarla. La memoria atómica. (Clarín y otros) Físicos del Instituto Niels Bohr. Para ello. fue creada dentro de átomos de gas de Cesio logrando retener información por cuatro milisegundos. Varios científicos han logrado almacenar impulsos de luz en átomos mediante un protocolo que confiere a la información un 70 por ciento de confiabilidad. crearon una memoria atómica de la luz que en el futuro puede romper las fronteras de la comunicación a través de Internet: consiguieron una red mucho más rápida y segura que la actual.La compañía Pew Internet and American Life publicó hace un par de días un sobre el futuro de Internet para el año 2020. De acuerdo a un artículo publicado en la revista Nature un equipo de científicos daneses han logrado almacenar impulsos de luz en átomos mediante un protocolo que confiere a la información un 70 por ciento de confiabilidad. los científicos aprovecharon la naturaleza dual de la 275 . todo un record en el mundo cuántico. • Un gran número de trabajadores desempeñará sus funciones en “mundos virtuales”. en Dinamarca.

0 cuando nos emocionamos y sonreímos con etiquetas. agregadotes. La Web semántica. Muerte a los nerds :-) 2. 4. probando que dos propiedades de la luz como lo son su amplitud y fase pueden transferirse a la materia con gran fidelidad. nuevos usos y nuevos servicios. 3. ya es hora que muera el Internet de texto en teléfonos móviles. mashups y APIs en no mucho tiempo estaremos pensando en cosas totalmente diferentes a medida que el Internet evoluciona y permite la masificación de nuevas herramientas. El Internet como en el iPhone o nada. 5. En la actualidad la información transmitida en Internet es llevada a cabo mediante pulsos de luz que durante su recepción son contaminados por un ruido llamado cuántico y que fue predicho por los físicos Neils Bhor y Heinsenberg hace 80 años. Estas son las 10 tendencias. desde búsquedas personalizadas hasta recomendaciones de compra. La economía de la atención. RDF. hasta ahora resultaba un serio obstáculo en el desarrollo de las comunicaciones cuánticas.luz tal y como lo predice la teoría cuántica. Los expertos predicen que los primeros sistemas cuánticos podrían ser una realidad en un lapso de entre 10 a 15 años. La Web móvil. micro formatos. recibir servicios a cambio de atención. OWL. 276 . las cosas por su nombre (semántico) y no por código que nadie entiende y a nadie le interesa. pero bien hechas. sindicación. Mundos virtuales. que la memoria cuántica reduce significativamente este ruido. que establece que la luz puede comportarse al mismo tiempo como una partícula u onda. se pudo demostrar. redes sociales. Inteligencia artificial. de hecho. Las 10 tendencias del futuro del Internet Richard MacManus identifica las 10 tendencias para el Internet del futuro en plena época del Web 2. Second Life pero bien hecho. Con estos últimos avances. Con el incremento en la velocidad de transmisión de datos este ruido que en principio es minúsculo cobra importancia. en español: 1.

Twitterrific o Plazer. Ubicuidad significa la facultad de estar presente al mismo tiempo en todas partes. 7. Estados Unidos perderá peso en Internet. facilitando la ubicuidad de Internet y rompiendo los límites actuales. damos por hecho que está en cualquier sitio y por ello mismo pasa desapercibido. y escrita directamente sobre nuestras retinas desde gafas y lentes de contacto. No es la primera vez que lo destacamos. veremos más aplicaciones como iScrobbler. Video online / TV por internet. Es decir. Rich Internet Apps. Personalización al máximo. 8. Como dice el inventor y visionario Ray Kurzweil en una entrevista recogida en el magnífico artículo The Future of Internet publicado el pasado mes de Abril por Red Herring y de obligada lectura: Los dispositivos actuales desaparecerán. cosida en nuestras ropas. 10. Herramientas que funcionan a base de su contraparte en el Web. es decir. El futuro de Internet pasa por hacer realidad en toda su extensión y amplitud el adjetivo ubicuo. Los dispositivos dejarán de ser los extremos de la Red para pasar a ser los nodos de la Red. Europa ya está despuntando. las aplicaciones del futuro involucraran múltiples dispositivos con capacidades ampliamente diferentes entre si.6. Web internacional. En su lugar. diversificación. Para materializar esta visión habrá que resolver previamente una serie de desafíos: 277 . Para anticipar como será Internet en el futuro todo pasa por entender la verdadera dimensión de la oportunidad que brindan las redes de comunicaciones de móviles. la electrónica estará embebida en nuestro entorno. La ubicuidad implica cierta familiaridad. Sitios Web como servicios Web. Algo ubicuo implica también que requiere muy poco esfuerzo consciente para ser utilizado. más allá de los PCs e incluso más allá de los actuales dispositivos móviles tal y como los conocemos hoy. pero el verdadero potencial de las redes móviles radica en la posibilidad de conectar a Internet cualquier ingenio electrónico. la presencia de dispositivos electrónicos en red en cualquier faceta de nuestra vida cotidiana. 9.

casi sin necesidad de intervención humana. Berners-Lee había pensado en algo todavía más revolucionario y que está aún por llegar: la Web semántica. la importancia de desarrollos que actualmente se están llevando acabo en áreas como la definición de interfaces para obtener información del contexto (Delivery Context Interfaces). De hecho. Tim Berners-Lee. no era exactamente la que hoy conocemos. La Internet que había imaginado en 1989 el creador de la World Wide Web. Berners-Lee había pensado en algo todavía más revolucionario y que está aún por llegar: la Web semántica. intercambio asíncrono de información (AJAX) o la descripción de los recursos a disposición de las aplicaciones (web semántica) son buenos ejemplos de la evolución que debe seguir la Web para convertirla en omnipresente. sino que además pueden "entender" dicha información. BernersLee. James Hendler y Ora Lassila. las soluciones deberán estar basadas en las tecnologías Web actuales para no romper la compatibilidad con la Red actual. como hacen ahora. El futuro de Internet tiene nombre: la Web semántica La Internet que había imaginado en 1989 el creador de la World Wide Web. nunca una ruptura. ¿Qué se entiende por Web semántica? Tres investigadores. El proceso debe ser una evolución. En la práctica esto significa que las máquinas —los ordenadores personales o cualquier otro dispositivo conectado a Internet— podrán realizar. En este sentido. lo han explicado en un artículo publicado en el número de mayo de la revista American Scientific. no era exactamente la que hoy conocemos. infinidad de tareas 278 . titulado precisamente The Semantic Web. De hecho. Hablan de una Internet en la que los ordenadores no sólo son capaces de presentar la información contenida en las páginas Web. Tim Berners-Lee. de la Red actual.• Simplificación del desarrollo de aplicaciones multi-dispositivo (cada vez más "multi") • Adaptación dinámica al contexto • Coordinación entre dispositivos • Seguridad Para dar respuestas a estos desafíos.

será posible que "los agentes de software que deambulan de una página a otra puedan realizar tareas sofisticadas para los usuarios". incluyendo las visitas de su madre. Hendler y Lassila inician su artículo exponiendo una situación cotidiana resuelta eficazmente gracias a una hipotética Web semántica funcionando a pleno rendimiento. lo que hasta ahora había sido básicamente "un medio de documentos para personas" pasará a ser un sistema de datos e información que se podrán procesar automáticamente. Dos hermanos tienen que ajustar su calendario para acompañar a su madre a unas sesiones de rehabilitación ordenadas por los médicos. Para que esto sea una realidad no será necesario que nuestros ordenadores posean la inteligencia artificial que tenía Hal en la novela de Arthur C. por tanto. la difícil papeleta de "añadir lógica a la Web". Así. "no es una web aparte sino una extensión de la actual en la que la información tiene un significado bien definido. Uno de los retos principales que afronta la Web semántica es el de proveer un lenguaje "que permita la exportación a la Web de las reglas de cualquier sistema de representación del conocimiento". En pocos minutos consiguen programar de nuevo sus agendas. explican los autores. Nuevas tecnologías Pero para llegar a esa nueva World Wide Web hay que dar una serie de pasos que no son sencillos. Por ejemplo. Será suficiente con que los contenidos se introduzcan en las páginas Web utilizando un programa de escritura de Web semánticas. Y lo hacen gracias "no a la World Wide Web de hoy sino a la Web semántica en la que se convertirá mañana". "La Web semántica".que simplificarán nuestra vida. "la mayor parte del contenido que hoy aparece en Internet está diseñado para ser leído por las personas. Según explican estos tres investigadores. posibilitando que los ordenadores y las personas trabajen en cooperación". Caso práctico Berners-Lee. Clarke "2001: una odisea en el espacio". Para ello utilizan un agente electrónico que revisa sus agendas para las próximas semanas y las combina con las horas disponibles en los centros de rehabilitación más cercanos cubiertos por el seguro médico familiar. y resuelven el problema. 279 . Los grupos que trabajan en la creación de esta nueva Web semántica deben solucionar. no para que lo puedan manipular con sentido unos programas informáticos".

pero no dice nada acerca del significado de dicha estructura". la web semántica puede ayudar a la evolución del conocimiento humano en general". Cuando alguien introduce en un buscador la palabra cook. Por ejemplo. "El problema es que la palabra cook no tiene sentido. dos de las cuales ya están en marcha: el extensible Markup Language (XML) y el Resource Description Framework (RDF). beneficiados En su artículo. Los agentes también mejorarán su eficacia cuando los contenidos de la Web tengan significado semántico. que nuestro microondas preparado para Internet consulte directamente al fabricante de un alimento congelado las condiciones óptimas para su cocción y proceda a la misma. ya que será posible combinar informaciones que residen en diferentes páginas Web que ahora no tienen ninguna conexión entre ellas.El desarrollo de la Web semántica pasa también por la adopción de diferentes tecnologías. "si está correctamente diseñada. Hendler y Lassila ponen algunos ejemplos de las ventajas que tendrá la existencia de una Web semántica. Estos conceptos pueden resultar ininteligibles para buena parte de los usuarios de Internet. que preferirán simplemente saber que la existencia de una Web semántica permitirá. según explican estos tres investigadores de Internet. un marco en el que es posible describir la información para que la procesen las máquinas. cuenta con un grupo de trabajo dedicado por entero a la Web semántica. Esta es la tarea que se intenta resolver con el lenguaje RDF. Berners-Lee. Otro elemento clave de la Web semántica son las "ontologías". o contenido semántico. el buscador devolverá innumerables resultados que deberán ser filtrados por el usuario ya que no sabe si el usuario está buscando un chef. Buscadores y agentes. las búsquedas muy precisas arrojarán mejores resultados cuando la Web semántica sea una realidad. Al mismo tiempo. En la página de este grupo se afirma que "la Web semántica es una visión: la idea de tener datos en la Web definidos y enlazados de forma 280 . facilitando la colaboración entre equipos investigadores de un mismo tema que se encuentran en puntos muy distantes del planeta. por ejemplo. para el ordenador". Al mismo tiempo. Grupos de investigación El World Wide Web Consortium (W3C). dirigido por Tim Berners-Lee. si está pensando en cocinar algo o si lo que quiere es encontrar a alguien con ese nombre. El lenguaje XML "permite a los usuarios añadir una estructura arbitraria a sus documentos. descritas por los autores como documentos o ficheros "que formalmente definen las relaciones entre términos".

Tres de estos grupos (OntoAgents. como nosotros los estudiantes tenemos soporte en internet para llevar a cabo nuestras actividades escolares. Lassila fue una de las creadoras del RDF. 281 . Ora Lassila es investigadora del Nokia Research Center de Boston y miembro del consejo asesor del W3C. James Hendler da clases de informática en la Universidad de Maryland. donde se pueden seguir los avances en esta materia. integración y reutilización de la información a través de varias aplicaciones". también se afirma en esta página que "la Web sólo alcanzará su pleno potencial si se convierte en un lugar donde la información puede ser compartida y procesada tanto por herramientas automáticas como por la gente". Varios grupos de investigación interesados en el avance de la Web semántica mantienen operativo el nodo SemanticWeb. con la idea de que el nodo se convierta en un "portal automático de comunidad" que sirva de escaparate de esta tecnología. donde ha estado investigando sobre representación del conocimiento en la Web. pero gracias a esto la sociedad adquirió una de los mejores inventos por el hombre hoy en día todos hacemos uso de este como recurso. mientras que otro (Ontobroker) pertenece a la Universidad de Karlsruhe. en Alemania.que puedan ser utilizados por máquinas no sólo con el fin de presentarlos sino también para la automatización. Al mismo tiempo.org. Scalable Knowledge Composition y Protégé) se encuentran en la Universidad de Stanford. El objetivo de SemanticWeb. es el responsable de investigación informática basada en agentes de la Defense Advanced Research Projects Agency (DARPA). En la investigación de este tema comprendí la necesidad que tenían los militares de hacer una red secreta debido alas guerras. Conclusión. el primer lenguaje de representación del conocimiento basado en Web. Asimismo. Junto a se equipo de investigación desarrolló SHOE.org es demostrar las posibilidades que ofrece el concepto de Web semántica. Por su parte. en California.

por la cual. El Internet es una red informática descentralizada.INTRODUCCION Los científicos y antropólogos afirman que el hombre se diferencia de los animales por su capacidad de evolucionar y de crear. Con su aparición. la computadora. ni en nuestros más recónditos sueños podíamos imaginar que todos los medios de comunicación eran capaces de fusionarse en un solo artefacto. ya que las direcciones o URLs por lo general comienzan utilizándolo). debemos acudir a la definición de Internet y así comprender un poco más sobre sus utilidades. Digamos entonces que el Internet es la red de redes. por este motivo es que no se puede responder a la pregunta de donde está la Internet físicamente . En palabras sencillas. la definición de Internet admite que se la conoce vulgarmente con el nombre de “autopista de la información” debido a que es una “ruta” en donde podemos encontrar casi todo lo que buscamos en diferentes formatos. También es conocida como la World Wide Web (www. millones de computadoras se pueden conectar entre sí. educativas. Para referirnos a ella además se utiliza el término "web" en inglés. acceden a millones de páginas. Son millones las personas. Pero ante de ahondar en la importancia de este instrumento virtual. Entendemos por Internet. Existen páginas de carácter personal. refiriéndose a una "tela de araña" para representar esta red de conexiones. Internet se asume como el gran paso hacia el futuro. esto puede verse claramente si hacemos un paneo observando cómo el ser humano se desarrolló hasta el día de hoy.está en todas las partes donde exista un ordenador con conectividad a esta red. que contienen información de la más diversa índole. la radio. fueron los primeros indicios que nos mostraban que la evolución no sólo es inminente sino que continúa. que para permitir la conexión entre computadoras opera a través de un protocolo de comunicaciones. la Internet es un conjunto de computadoras conectadas entre si. y por supuesto orientadas a los negocios. y su estructura actual data de la década de los 90`. Esta palabra suele referirse a una interconexión en particular. se puede extraer información a una escala nunca antes vista. compartiendo una determinada cantidad de contenidos. la revolución de la información terminó definitivamente por despegar a escala masiva. abierta al público la cual es capaz de conectar tanto a organismos oficiales como educativos y empresariales. entre otros. De esta. una interconexión de redes informáticas que le permite a las computadoras conectadas comunicarse directamente entre sí. de hecho. toda empresa lo suficientemente tecnologizada cuenta con una página en Internet. es que además de ser algo novedoso era al mismo tiempo impensado. Cada invento o creación tiene un aporte tecnológico: la televisión. las cuales por medio de un módem y hoy en día. 282 . por medio de la banda ancha. prefijo bastante conocido por los que la navegan.

independiente de donde se encuentre. Lo que sí podemos afirmar es que los costos para su conexión serán cada vez más accesibles y por eso se convertirá en el principal medio masivo de 283 . Asimismo. dentro de la comunicación interna de las organizaciones estatales o privadas. Asimismo. y lo ha demostrado cuando inventó este espacio virtual. con cualquier persona del mundo. Y es que la carrera espacial. podemos realizar transferencia de archivos . el hombre es capaz de crear y evolucionar de formas astronómicas. mucho antes. era probable encontrar individuos sin cuentas de e-mail. utilizando por supuesto un leguaje común para esto (en este caso el protocolo FTP o File Transfer Protocol) o enviar correos electrónicos (utilizando el protocolo SMTP o Simple Mail Transfer Protocol). entre ellos su evolución y el impacto social que este medio de comunicación ha generado. como los ya famosos chat e IRC (Internet Relay chat). existe una aplicación asociada e estos correos electrónicos conocida como la mensajería instantánea. incluso. a base de los protocolos TCP y el IP. Desde hace ya bastante tiempo. han dejado. muchas empresas. a unos años antes que surgiera la misma como una popular red pública o mundial. De esta manera. Estos acontecimientos no son casuales. entre los Estados Unidos y la Unión Soviética. Esta red informática a nivel mundial. llevó a que lentamente se fuera fraguando la Internet. etc. había dado indicios al construir los ordenadores. La definición de Internet suele ser mayormente técnica pero existen muchos aspectos relevantes que ésta no abarca. que se creo la palabra Internet. donde se comenzó a estudiar la factibilidad técnica de desarrollar redes interconectadas. Fue durante aquel proceso investigativo. utilizando protocolos especiales para poder comunicarse. para apodar a estas redes. pero no brinda información sobre su futura evolución. La definición de Internet asegura que ésta ha sido revolucionaria. Internet ha cambiado absolutamente la totalidad de los hábitos de los seres humanos. los cuales han revolucionado la manera de comunicarse. aunque ya. y han dejado como prácticamente obsoleto el antiguo sistema de correo. Con ellos podemos comunicarnos de manera casi inmediata. también podemos desarrollar conversaciones en línea. un tanto de lado el teléfono para sus actividades comerciales. el diario y la radio se escuchan desde los ordenadores.el correo no se utiliza de la misma forma. actualmente eso es casi imposible. el Internet. años atrás. Internet se dispone a apropiarse de casi todo el mercado y decimos esto porque son cada vez más las personas que poseen conexiones a la web. se puede remontar. en parte una pugna de poder. es que el correo electrónico es altamente utilizado. este se remonta a 1973. está conformada por un gran número de computadores conectados entre sí. mediante la cual se puede mantener una conversación por medio de texto en línea Con respecto al desarrollo de el Internet. las películas no se alquilan con tanta frecuencia en los videos clubs. El Internet y su historia. Como mencionamos al comienzo de esta redacción. y esto se debe a que esta herramienta es impredecible.Por medio de Internet.

comunidades y sites que estén mejor optimizados. ha sido testigo de la convergencia de las tecnologías digitales y analógicas. La infraestructura digital de cable e inalámbrica de la que disfrutamos hoy en día y que sirve a una vastísima comunidad de usuarios de todo el mundo. así como de la voz. ver vídeos o comprar en línea. propició un entorno idóneo para su expansión masiva en sus primeros años. el fax. los usuarios. adaptabilidad. Pero si algo es seguro. hace ya un siglo. El secreto del poder de Internet reside en el hecho de que engloba a todo el mundo y les anima a compartir con los demás sus ideas más creativas. Las generaciones más jóvenes son incapaces de concebir una época en la que no pudieran compartir fotos. sino también en las aplicaciones. Allí tendremos combinados todos los servicios necesarios y que. el texto. y la forma que adopte dependerá de cómo lo definamos tanto nosotros como las circunstancias. Es imposible atrasar el reloj hasta el mundo que existía antes de Internet. 284 . los gráficos y los medios de streaming. Internet es la manifestación actual de todos estos adelantos y el vórtice alrededor del cual gira el torbellino de cambios y de mejoras. Ha conseguido penetrar en nuestras instituciones. La filosofía fundacional de Internet. INTERNET HOY EN DÍA Las aplicaciones de las tecnologías de la comunicación que responden a las necesidades de nuestra industria y nuestra sociedad han experimentado cambios significativos desde los albores de las telecomunicaciones. se estima que también serán más baratos los dominios y que la mayor parte de la publicidad se transmitirá hacia los blogs. Internet lidera el avance de la sociedad de la información del siglo XXI. En la actualidad. Internet tiene ante sí un futuro flexible. videoadicción y sorprendentes aplicaciones. hasta el día de hoy. basada en la apertura y en la comunidad. no sólo en lo que a la infraestructura se refiere. chatear con los amigos. como nunca antes se hubieran imaginado. los servicios y las innovaciones tecnológicas. debemos diferenciar. más de mil millones de personas utilizan Internet en todo el planeta. los datos. sus conocimientos y su trabajo de forma interactiva a través de Internet.comunicación. ubicuidad. y ha cambiado nuestro comportamiento y nuestras actitudes de manera fundamental. personalización. es que será una red con movilidad absoluta. la imagen. el vídeo.

a medida que el mundo avanza hacia una sociedad en la que personas. Volvamos al pasado y exploremos la herencia tecnológica que hemos recibido antes de lanzarnos a una visión de hacia dónde nos dirigimos. DEFINICION PRECISA DE INTERNET Es difícil dar una definición que refleje de forma precisa una realidad tan compleja. ésta contacta con un servidor y le envía una petición de servicio quedando a la espera de la respuesta. ya que son muchas las cosas que de ella depende. desarrolladas e implantadas hace ya muchos años por auténticos visionarios. Recibe las peticiones de servicio y retorna los resultados a la aplicación cliente. aplicaciones y servicios están permanentemente conectados. En general el que inicia una comunicación actúa como cliente y el que está a la espera actúa como servidor. Con demasiada frecuencia olvidamos que muchas de las tecnologías de las que disfrutamos hoy en día fueron concebidas. resulta útil echar la vista atrás y repasar los pioneros y las fuerzas motrices que hicieron posible que hoy disfrutemos de estos maravillosos avances. 285 . El servidor no interacciona con el usuario. ¿PARA QUE SIRVE LA INTERNET? Es difícil a estas alturas imaginarse el mundo sin Internet. La abordamos desde el punto de vista de las comunicaciones como una red de ordenadores (servidores) permanentemente conectados y a la espera de solicitudes de servicios de otras máquinas (clientes) a través de las redes de comunicación. Para comprender el funcionamiento de internet es necesario entender lo que significa ordenador servidor y ordenador cliente. esa es función del programa cliente. dispositivos. EL PARADIGMA CLIENTE/SERVIDOR: Este paradigma sitúa a los ordenadores que establecen una comunicación. La aplicación cliente es la encargada de interactuar con el usuario y de mostrar los resultados de la petición. Es cierto que antes de la globalización de Internet ya existían redes que conectaban otras redes entre sí mediante otros protocolos (el más conocido quizás sea el X-25). en dos niveles distintos. pero por una larga serie de motivos todos esos protocolos se han ido abandonando en favor de Internet. HISTORIA DE LA INTERNET Para entender la historia y desarrollo de la internet hay que tener en cuenta el desarrollo de las comunicaciones inalambricas por lo que decidimos incluir una breve historia sobre ellas. hasta el punto en que un fallo en toda la red de unas horas podría causar unos efectos devastadores en la economía y en otros sectores. Cuando el usuario inicia una aplicación cliente (por ejemplo navegador Explorer). El servidor siempre está a la espera de peticiones de servicio.Sin embargo.

• Breve historia de las comunicaciones inalámbricas. Desgraciadamente. que a su vez se basaba en el descubrimiento realizado en 1890 por el físico francés Édouard Branly. y más adelante desarrolló el primer servicio de radio fuera del laboratorio. También en 1894. Heinrich Hertz demostró la existencia de las ondas de radio utilizando un transmisor y un receptor primitivos. Tesla había llevado a cabo el mismo expermiento el año anterior y Marconi lo realizaría al año siguiente. antes de que su predicción pudiera demostrarse experimentalmente. dando a las ondas de radio su primera aplicación práctica. Las comunicaciones inalámbricas cuentan con una larga historia. Su investigación sobre las señales inalámbricas remotas fue la primera en la que se empleó una conexión con 286 . que los campos electromagnéticos se expanden a la velocidad de la luz en forma de ondas polarizadas). Un hecho determinante fue la predicción matemática de la existencia de las ondas de radio que realizó James Clerk Maxwell en 1864. Hughes logró enviar y recibir mensajes en código Morse. En 1894. utilizando microondas con una longitud de onda milimétrica. en 1888. India. no obstante. Maxwell falleció en 1879. Jagadish Chandra Bose realizó una transmisión radiofónica de corto alcance en Calcuta. No pretendemos entrar con profundidad en este tema. que es uno de los componentes importantes de Internet. La primera referencia que tenemos son los documentos que investigan la relación entre electricidad y magnetismo (especialmente el célebre experimento realizado en 1820 por Hans Christian Orsted en el que se demostró que un cable conductor de corriente podía desviar la aguja magnetizada de una brújula). Un año más tarde. Más adelante. sino que nos limitaremos a repasar someramente el desarrollo de la radio. en Rusia. Alexander Popov construyó en Rusia el primer receptor de radio. No fue hasta 1893 cuando el siempre innovador Nikola Tesla realizó los primeros experimentos de "telegrafía inalámbrica". La demostración experimental llegó poco después de la muerte de Maxwell. Einstein exclamó: "La especial teoría de la relatividad debe sus orígenes a las ecuaciones de Maxwell sobre los campos electromagnéticos". Maxwell fue capaz de anticipar matemáticamente la radiación de las ondas electromagnéticas (esto es. que supuso el primer paso hacia la radiotransmisión de paquetes y la creación de la red de telefonía móvil actual. En 1878. David E. En un trabajo asombroso. En referencia al trabajo de Maxwell. que se presentó públicamente en 1895. Oliver Lodge logró transmitir señales de radio en la Universidad de Oxford mediante un aparato conocido como "coherer".

En 1895. Guglielmo Marconi logró transmitir señales inalámbricas a una distancia de más de un kilómetro y medio del laboratorio que tenía instalado en su casa en las afueras de Bolonia. hasta la era digital. en las últimas décadas del siglo XX. en 1897 Marconi realizó una serie de experimentos de transmisión por radio a través de una conexión entre la isla de Wight y Bournemouth. la tecnología inalámbrica no se empezó a desarrollar en importantes direcciones. en 1901. Gracias a estos progresos. que se convertiría más adelante en la empresa Marconi Wireless Telegraph Company. un componente esencial de los sistemas de radio. la Oficina de Patentes estadounidense cambió de opinión y le concedió la patente. a más de 48 kilómetros. Aunque trabajaban y pensaban de forma independiente. confirmando la patente de Tesla. Sin embargo. Éste fue el pistoletazo de salida para una serie de experimentos para transmitir ondas de radio a distancias cada vez mayores. En 1897 Marconi obtuvo una patente británica (presentada en 1896) para el telégrafo inalámbrico. Mucho más adelante. Resulta interesante que los pioneros de la radio se influyeron mutuamente en el descubrimiento de ideas y la adopción de líneas de investigación. En 1896.500 kilómetros. en 1898. Inglaterra. las redes móviles ad hoc la radiotransmisión de paquetes de datos. Marconi obtuvo el premio Nobel de Física por sus contribuciones a la radio. en 1943. En 1906. y de nuevo en los tres años siguientes. etc. En 1900 Nikola Tesla obtuvo las patentes estadounidenses (presentadas en 1897) para las técnicas básicas que mejorarían sustancialmente las transmisiones radiofónicas. que ahora se conoce como la válvula amplificadora de triodo. Lee de Forest inventó el "audión". En 1909. Italia. entre las que se cuentan la telefonía móvil digital. sus descubrimientos se sincronizaron desde varios continentes. En 1900. la transmisión de la primera señal radiofónica trasatlántica. Todas 287 . adelantando así la existencia de los semiconductores de tipo P y de tipo N. Reginald Fessenden realizó la primera transmisión de voz a través de la radio. a unos 21 kilómetros. A Marconi se le denegó la patente estadounidense en 1900. y fundó la primera emisora de radio del mundo. y en 1899. el Tribunal Supremo de los Estados Unidos revocó esta decisión. Tesla consiguió transmitir señales inalámbricas a una distancia de 48 kilómetros. finalmente. Popov estableció una comunicación desde un barco hasta la estación costera que se encontraba a una distancia de más de 9 kilómetros. la radio llegó a todos los rincones del planeta. las redes de acceso inalámbricas. las plataformas inalámbricas portátiles. una conexión entre las dos orillas del Canal de la Mancha (utilizando un oscilador de Tesla) en 1899 y.un semiconductor para detectar las ondas de radio. en 1904. a una distancia de más 3. Sin embargo.

R. lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. del Massachusetts Institute of Technology. creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad. Internet es a la vez una oportunidad de difusión mundial. en 1965. Luego de su creación fue utilizado por el gobierno. ejecutando programas y recuperando datos a discreción en la máquina remota. Bob Taylor. universidades y otros centros académicos. Orígenes de Internet La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por Joseph Carl Robnett Licklider (J. en Agosto de 1962. Roberts de la importancia del concepto de trabajo en red. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente. el concepto era muy parecido a la Internet actual. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos. teléfono.L). En esencia. Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones.ellas han contribuido a que Internet exista tal y como la conocemos hoy. Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas.C. y el investigador del MIT Lawrence G. Los inventos del telégrafo. Para explorar este terreno. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta 288 . en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. A continuación emprenderemos un viaje por la historia de Internet. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland. radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida.

cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host . El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2. su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. RAND (1962-65) y NPL (196467) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. publicándolo en 1967. en 1964. procesadores de mensajes de interfaz). En Agosto de 1968. A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis. que desarrolló funciones tales 289 .labor. la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation. El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart. Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global. liderado por Elizabeth (Jake) Feinler. de Bolt Beranek y Newman (BBN). El SRI patrocinó el Network Information Center .4 Kbps hasta 50 Kbps (5). Ocurrió que los trabajos del MIT (1961-67). un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar. DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs. en Los Angeles (6). A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. Todo ello ocurrió en Septiembre de 1969. diseño y medición. y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California. después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET.

Un mes más tarde. En Julio. Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar. Desde entonces. En Diciembre de 1970. En Octubre de 1972. y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones. Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. así como software adicional de red. escribió el software básico de envíorecepción de mensajes de correo electrónico. del T. llamado Network Control Protocol (NCP.como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ). almacenar. Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72. Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones. Se añadieron dos nodos en la Universidad de California. la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. reenviar y responder a mensajes. Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo. Incluso en esta primitiva etapa. Santa Bárbara. el Network Working Group (NWG) liderado por S. En Marzo. impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. de BBN. a finales de 1969. Fue precursora del tipo de actividad que observamos hoy día en la 290 . con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red. Así. el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Ray Tomlinson.Crocker acabó el protocolo host a host inicial para ARPANET. hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. protocolo de control de red). leer selectivamente. cuando el SRI fue conectado a ARPANET. Esta tradición continúa hasta el día de hoy.

Internet se basó en la idea de que habría múltiples redes independientes. Entonces. En una red de arquitectura abierta. Este trabajo fue originalmente parte de su programa de paquetería por radio.World Wide Web . Era el tradicional método de conmutación de circuitos. que puede ofrecer a los usuarios y/u otros proveedores. de diseño casi arbitrario. éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo). No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico. las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz. redes de paquetes por radio y otros tipos de red. Hasta ese momento. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. el programa fue llamado Internetting . empezando por ARPANET como la red pionera de conmutación de paquetes. es decir. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a 291 . las interconexiones de propósito especial entre redes constituían otra posibilidad. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Bajo este enfoque. incluyendo otros proveedores de Internet. Juntamente con la conmutación de paquetes. la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. Internet como ahora la conocemos encierra una idea técnica clave. Conceptos iniciales sobre Internetting La ARPANET original evolucionó hacia Internet. la de arquitectura abierta de trabajo en red. del enorme crecimiento de todas las formas de tráfico persona a persona. aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. había un sólo método para "federar" redes. pero más tarde se convirtió por derecho propio en un programa separado. pero que pronto incluiría redes de paquetes por satélite. Y aunque había otros métodos limitados de interconexión de redes distintas.

extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. La premisa era que ARPANET no podía ser cambiado en este aspecto. David Clark y su 292 . el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s. En este modelo. Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. dirigido por Cerf. BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). el nuevo protocolo sería más bien un protocolo de comunicaciones. El equipo de Stanford. protocolo de control de transmisión /protocolo de Internet). produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar. Cada expansión afrontó nuevos desafíos. Así. Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Partiendo de las tres primeras redes ARPANET. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP. NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Ideas a prueba DARPA formalizó tres contratos con Stanford (Cerf). Cuando aparecieron los ordenadores de sobremesa (desktop). Si alguno de los paquetes se perdía. Sin embargo. TCP era demasiado grande y complejo como para funcionar en ordenadores personales. Así como el NCP tendía a actuar como un driver (manejador) de dispositivo. el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. radio y satélite y de sus comunidades de investigación iniciales.

al igual que los grandes sistemas. A medida que el número de redes en Internet se multiplicaba. por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol . las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. 293 .es ) en direcciones de Internet. La desarrollaron. la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores). Como resultado del crecimiento de Internet. el desarrollo de LAN. a escala nacional (pocas redes con muchos ordenadores). Esto llevó a la invención del DNS ( Domain Name System . podían ser parte de Internet. por último.org o www. La clase A representa a las redes grandes. El cambio que supone pasar de unas pocas redes con un modesto número de hosts (el modelo original de ARPANET)) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.ati. www. protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol . y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El incremento del tamaño de Internet resultó también un desafío para los routers . sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. La tecnología Ethernet. es la dominante en Internet. la clase B representa redes regionales. primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox). protocolo externo de pasarela) usado para mantener unidas las regiones. Esta implementación operaba con otras de TCP. desarrollada por Bob Metcalfe en el PARC de Xerox en 1973. PC y estaciones de trabajo permitió que la naciente Internet floreciera. y luego para el PC de IBM.equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.acm. se produjo un cambio de gran importancia para la red y su gestión. En primer lugar. por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas. Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. En los años 80. B y C) para acomodar todas las existentes. hubo que definir tres clases de redes (A. El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo. el diseño inicial no era ya capaz de expandirse. Originalmente había un número muy limitado de máquinas. pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo. y demostraba que las estaciones de trabajo. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas.

Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. A medida que evolucionaba Internet. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión. la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix. Classless Interdomain Routing . En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación. Así. la propagación de los cambios en el software. robustez y escalabilidad. enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.El diseño permitía que distintas regiones utilizaran IGP distintos. por lo que los requisitos de coste. también lo hacía el tamaño de la tablas de direccionamiento. TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix. en 1980. incorporando el TCP/IP desarrollado en BBN. BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. velocidad de configuración. Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. podían ajustarse a cada situación. Visto en perspectiva. pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP"). Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers . especialmente el de los host s. 294 . en 1985. Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores. La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha. se fue convirtiendo en uno de sus mayores desafíos. la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR.

y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. Con la excepción de BITNET y USENET. 295 . el hecho de que durante mucho tiempo no lo fueran. que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". en consecuencia. De hecho. La transición hacia una infraestructura global Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET. a menudo entre distintos sistemas. de ahí las escasas presiones por hacer estas redes compatibles y. estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas. David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS ( National Science Foundation . DECNet. como XNS de Xerox. una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus". Los físicos de la NASA continuaron con SPAN y Rick Adrion. y la SNA de IBM (8). mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Fundación Nacional de la Ciencia) de Estados Unidos. todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión. El correo electrónico se empleaba ampliamente entre varias comunidades. basada en los protocolos de comunicación UUCP de Unix. estaban empezando a proponerse tecnologías alternativas en el sector comercial. y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET. El Departamento norteamericano de Energía (DoE. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas. Además. Es decir. Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina.

En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. 296 . especialmente a las especificaciones de los protocolos. con aproximadamente 29. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET.000 redes en los cinco continentes y en el espacio exterior. TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información. La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board . Comité de Actividades de Internet).000 redes en los Estados Unidos. Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo. El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990. y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF. La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB. esencial para crear redes. El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general. Se adoptaron varias políticas y estrategias para alcanzar estos fines.Había visto crecer Internet hasta alcanzar más de 50. el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas. cuando la propia ARPANET se disolvió. el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb. El papel de la documentación Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos. junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa.

Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet. protocolo de transferencia de ficheros) empezó a usarse. y continúan siendo una herramienta importante. El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet. desde luego. las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP. mantenía los directorios online .En 1969 S. Después de empezar a usarse el correo electrónico. El IETF tiene ahora más de 75 grupos de trabajo. cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Pero cuando el FTP ( File Transfer Protocol . Cada 297 . el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común. El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet. estándares técnicos e ingeniería en Internet. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación. El efecto de las RFC era crear un bucle positivo de realimentación. tareas en las que continúa hoy en día. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. Al principio. SRI. dio un paso clave al establecer la serie de notas RFC ( Request For Comments . Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos. entonces en UCLA. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar.aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos. las RFC fueron impresas en papel y distribuidas vía correo "lento". con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. en su papel como Centro de Información en la Red. las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales.Crocker. Hoy en día. lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos. Con el paso del tiempo. petición de comentarios). independientemente de su localización.promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas.

Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda. Cuando se alcanza el consenso en el documento. deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Sus objetivos están enfocados a la educación y la investigación académica. Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información. El futuro: Internet 2 Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores. éste puede ser distribuido como una RFC. 298 . Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo.

pero pronto aparecieron programas que se ensamblaban automáticamente. junto con la enorme facilidad de cometer errores. su terminología especial y una sintaxis particular. ). etc. de formaron los lenguajes de programación que hacen posible la comunicación con el microprocesador. Los primeros en aparecer fueron los ensambladores. es decir. DEFINICIONES Un lenguaje de programación es una notación para escribir programas. Al principio sé hacia el programa sobre papel y. necesitan un lenguaje especifico pensado por el hombre para ellas. o muy relacionados con el lenguaje máquina del ordenador (como el C y el ASSEMBLER). hicieron que. Un lenguaje esta definido por una gramática o conjunto de reglas que se aplican a un alfabeto constituido por el conjunto de símbolos utilizados. son en realidad fundamentalmente gestores de información (COBOL. utilizando términos y símbolos relacionados con el tipo de problema que se debe resolver. Estos lenguajes permiten. en cambio. por un lado. Por ejemplo. Dada la dificultad de comunicación entre el computador y el programador. ). etc. son maquinas y como tales. escribir las operaciones que son necesarias realizar para resolver el problema de un modo parecido a como se escribiría. necesitan constantemente interpretar todas las instrucciones que reciben. en la década de los 40. Los distintos niveles de programación existentes nos permiten acceder al 299 . PL/1. existen algunos creados especialmente para aplicaciones científicas o matemáticas generales (BASIC. cuya localización era larga y difícil. mediante el empleo de herramientas que brinda la informática. En la actualidad hay muchos tipos de lenguajes de programación. FORTRAN. Además. después se traducía a mano con la ayuda de unas tablas. Los ordenadores se programaban en lenguaje máquina pero las dificultades que esto llevaba.Lenguajes de Programación Los ordenadores no hablan nuestro idioma. la posibilidad de usar lenguajes simbólicos. y se introducían en la máquina en forma numérica. PASCAL. otros. fundamentalmente consistía en dar un nombre a cada tipo de instrucción y cada dirección. se orientan al campo empresarial y al manejo de textos y ficheros. a través de los cuales podemos comunicarnos con el hardware y dar así las ordenes adecuadas para la realización de un determinado proceso. cada uno de ellos con su propia gramática.

que la principio del siglo XIX predijo muchas de las teorías en que se basan los actuales ordenadores. gracias a la creación de Charles Jacquard (francés). Se dice por tanto que estos dos genios de antaño. Pero Babagge se dedico al proyecto de la máquina analítica. calculo/manipulación. pero que por motivos técnicos no pudo construirse hasta mediados del siglo XX. la cual es considerada como la primera programadora de la historia. su contribución es decisiva. Entonces Babagge intento crear la máquina que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. que se pudiera programar con tarjetas perforadas. 2) Memoria. tampoco llegaron a ejecutarse. así tendremos que utilizar un determinado lenguaje ligado a sus correspondientes traductores. lo cual describe la inteligencia de la que se hallaban dotados. lógicamente. En su diseño. y almacenamiento/recuperación. Consistía en lo que él denominaba la maquina analítica. Los lenguajes de programación deben tener instrucciones que pertenecen a las categorías ya familiares de entrada/salida. A pesar de ello. 3) Unidad de control. se adelantaron un siglo a su época. y Ada. abandonando la maquina de diferencias. para regular la secuencia de 300 . en la programación mediante tarjetas perforadas. logica/comparación. Como la maquina no llego nunca a construirse. de tal forma que según utilicemos un nivel u otro. Es un conjunto de palabras y símbolos que permiten al usuario generar comandos e instrucciones para que la computadora los ejecute. de textos. .hardware. Este hombre era un fabricante de tejidos y había creado un telar que podía reproducir automáticamente patrones de tejidos. pues realizo programas para aquélla supuesta maquina de Babagge. Con él colaboro Ada Lovedby. sobre todo si observamos que en cuanto se empezó a programar. Ada ha permanecido como la primera programadora de la historia. la cual se le ocurrió a este hombre a mediados del siglo XIX. un dispositivo mecánico para efectuar sumas repetidas. Si bien las ideas de Babagge no llegaron a materializarse de forma definitiva. HISTORIA Los primeros lenguajes de programación surgieron de la idea de Charles Babagge. la máquina constaba de cinco unidades básicas: 1) Unidad de entrada. Era un profesor matemático de la universidad de Cambridge e inventor ingles. los programadores utilizaron las técnicas diseñadas por Charles Babagge. que consistían entre otras. Pero la tecnología de la época no bastaba para hacer realidad sus ideas. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias. leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. los programas de Ada. donde se almacenaban datos y resultados intermedios. para introducir datos e instrucciones. ya que los ordenadores actuales responden a un esquema análogo al de la máquina analítica. pero si suponen un punto de partida de la programación. en tarjetas perforadas.

estos tres trabajos han de realizarse dentro de las ligaduras y capacidades de la organización de una computadora y de las limitaciones fundamentales de la propia "calculabilidad". uno desarrollado por IBM para una maquina IBM. en el sentido de que camufla importantes diferencias entre distintos niveles y aplicaciones de la programación. que se programaba. Por ejemplo. El camino señalado de Babbage. mientras que otros (FORTRAN y COBOL) son el producto de desarrollo de varios años realizados por comités de diseño de lenguajes. exactamente lo que sé hacia era cambiar cables de sitio para conseguir así la programación de la maquina. o del programador que desarrolla un sistema operativo multiprocesador en ADA. el primer compilador para el lenguaje Y sobre la maquina X es desarrollada por la corporación que manufactura la maquina X . El "diseñador del lenguaje" es también un termino algo nebuloso. cambiando directamente el Hardware de la maquina. que efectúa las operaciones. Charles Babbage. Algunos lenguajes (como APL y LISP) fueron diseñados por una sola persona con un concepto único. LAS TENDENCIAS DE LOS LENGUAJES DE PROGRAMACIÓN El estudio de los lenguajes de programación agrupa tres intereses diferentes.ejecución de las operaciones. 5) Unidad de salida. el famoso ENIAC (Electronic Numerical Integrator And Calculator). 4) Unidad Aritmético-Lógica. En este trabajo. su programación se basaba en componentes físicos. Además. o del programador que diseña un experimento de inteligencia artificial en LISP. La entrada y salida de datos se realizaba mediante tarjetas perforadas. intentare clarificar estas distinciones tratando diferentes lenguajes de programación en el contexto de cada área de aplicación diferente. otro 301 . no fue nunca abandonado y siguiéndolo. se construyeron los primeros computadores. el del programador profesional. el del diseñador del lenguaje y del Implementador del lenguaje. dado que faltaba algo fundamental: la electrónica. El termino "el programador" es un tanto amorfo. Cuando surgió el primer ordenador. conocido como el "padre de la informática" no pudo completar en aquella época la construcción del computador que había soñado. o sea. o del programador que combina sus rutinas de FORTRAN para resolver un problema de ingeniería complejo. hay varios compiladores de Fortran en uso. Mas frecuentemente. El "Implementador del lenguaje" es la persona o grupo que desarrolla un compilador o interprete para un lenguaje sobre una maquina particular o tipos de maquinas. encargada de comunicar al exterior los resultados. Claramente el programador que ha realizado un curso de doce semanas en COBOL y luego entra en el campo del procesamiento de datos es diferente del programador que escribe un compilador en Pascal.

diseñadores de un lenguaje implementadores del mismo. C y ADA (para aplicaciones de programación de sistemas) y PL/I (para aplicaciones de propósitos generales). y así sucesivamente. los lenguajes de alto nivel tienen normalmente las características de " Transportabilidad". Ejemplos de estos lenguajes son los lenguajes estadísticos como SAS y SPSS y los lenguajes de búsqueda en base de datos. los cuales son útiles en un entorno de programación de estudiantes debido a su superior capacidad de diagnostico y velocidad de compilación.desarrollado por DEC para una maquina DEC. COBOL (para aplicaciones de procesamiento de datos). Los lenguajes de " Alto Nivel" son los más utilizados como lenguaje de programación. Ejemplos de estos lenguajes de alto nivel son PASCAL. Hay. Es decir. LISP y PROLOG (para aplicaciones de inteligencia artificial). Los "Lenguajes Declarativos" son los mas parecidos al castellano o ingles en su potencia expresiva y funcionalidad están en el nivel mas alto respecto a los otros. Los "Lenguajes Ensambladores" y los "Lenguajes Maquina" son dependientes de la maquina. estas visiones están condicionadas por la visión histórica por la que ha transcurrido el lenguaje. otro por CDC. Estos lenguajes se desarrollaron con la idea de que los profesionales pudieran asimilar mas rápidamente el lenguaje y usarlo en su trabajo. Por ejemplo. tiene su propio lenguaje maquina distinto y su lenguaje ensamblador 302 . Cada uno debe comprender las necesidades y ligaduras que gobiernan las actividades de los otros dos. la universidad de Waterloo desarrolla compiladores para FORTRAN Y PASCAL. Las compañías de software también desarrollan compiladores y también lo hacen los grupos de investigación de las universidades. Son fundamentalmente lenguajes de ordenes. Hay también muchos aspectos compartidos entre los programadores. están implementadas sobre varias maquinas de forma que un programa puede ser fácilmente " Transportado " (Transferido) de una maquina a otra sin una revisión sustancial. Además. dos formas fundamentales desde las que pueden verse o clasificarse los lenguajes de programación: por su nivel y por principales aplicaciones. como NATURAL e IMS. SNOBOL( para aplicaciones de procesamiento de textos). sin necesidad de programadores o practicas de programación. estos lenguajes permiten que los algoritmos se expresen en un nivel y estilo de escritura fácilmente legible y comprensible por otros programadores. tal como VAX de digital. dominados por sentencias que expresan "Lo que hay que hacer" en ves de "Como hacerlo". Aunque no son fundamentalmente declarativos. APL y FORTRAN (para aplicaciones científicas). En ese sentido se llama "Independientes de la maquina". Además. al menos. Cada tipo de maquina. Además. hay cuatro niveles distintos de lenguaje de programación.

puesto que los mensajes de error se refieren directamente a sentencias del texto del programa original. el interprete ejecuta directamente las instrucciones en un lenguaje Y de alto nivel. Sin embargo. sin un paso de procesamiento previo. Cada sentencia es interpretada y luego traducida a lenguaje maquina solo una vez. Hay también una estrecha relación ( correspondencia 1:1) entre las sentencias en lenguaje ensamblador y sus formas en lenguaje maquina codificada. La compilación es. SNOBOL.Pascal. por tanto. M para "multiplicar"). El lenguaje Ensamblador es simplemente una representación simbólica del lenguaje maquina asociado. en general. es necesario un conocimiento de la arquitectura mecánica subyacente para realizar una programación efectiva en cualquiera de estos niveles lenguajes. donde cada nueva ejecución de un programa implicado un cambio en el propio texto del programa. A para " sumar". algún tipo de interfaz con el lenguaje maquina para que el programa pueda ejecutarse. la ventaja de la eficiencia que se 303 .asociado. Y. El ensamblador y el compilador traducen el programa a otro equivalente en el lenguaje X de la maquina "residente" como un paso separado antes de la ejecución. etc. La principal diferencia aquí es que los lenguajes ensambladores se utilizan símbolos (X. C. En algunos casos. Además. Las tres interfaces más comunes: un "ensamblador”. a mas bajo nivel de lenguaje mas cerca esta de las características de un tipo e maquina particular y más alejado de ser comprendido por un humano ordinario. PROLOG y LISP. ensambladores de alto nivel: Como muestra este ejemplo. un compilador estará utilizable alternativamente para un lenguaje interpretado (tal como LISP) e inversamente (tal como el interprete SNOBOL4 de los laboratorios Bell). Z. Los siguientes tres segmentos del programa equivalentes exponen las distinciones básicas entre lenguajes maquina. 1 Frecuentemente la interpretación es preferible a la compilación en un entorno de programación experimental o de educación. COBOL. un proceso más eficiente que la interpretación para la mayoría de los tipos de maquina. PL/I. La calidad de diagnosis y depuración que soportan los lenguajes interpretados es generalmente mejor que la de los lenguajes compilados. lo cual permite una programación menos tediosa que con el anterior. Por otra parte.) para que lo comprenda la maquina. Ada y Modula-2 . Algunos lenguajes son lenguajes principalmente interpretados. Con un compilador. mientras que se requieren códigos numéricos (OC1A4. como APL. El resto de los lenguajes -. La programación de un lenguaje de alto nivel o en un lenguaje ensamblador requiere. un "compilador" y un "interprete".son normalmente lenguajes compilados. Esto se debe principalmente a que las sentencias dentro de un "bucle" deben ser reinterpretadas cada vez que se ejecutan por un interprete. FORTRAN.

las cuales han sido diseñadas recientemente por Symbolics y Xerox Corporations. así como por sus distintas 304 . Es importante para un programador decidir cuales conceptos emitir o cuales incluir en la programación. uno no debe sorprenderse de ver la antigua sentencia GOTO dentro de su repertorio. los resultados pueden ser un valor o una función. combinada con la IF. Los que estudian se han elegido debido a su mayor influencia y amplio uso entre los programadores. Existen cinco estilos de programación y son los siguientes: Orientados a Objetos. y esto es correcto en el contexto de las filosofías actuales de ingeniería del software y programación estructurada. Los lenguajes de Programación son tomados de diferentes perspectivas. Imperativa : Entrada. ver la influencia que ejercer las arquitecturas y aplicaciones de las computadoras sobre el diseño de lenguajes y evitar futuros defectos de diseño aprendido las lecciones del pasado. Como ejemplo de estos están las nuevas maquinas LISP. Cada programador tiene en mente un estilo particular de programación. Lógico : {T. Por ejemplo. los datos son funciones. Funcional : "Funciones". El programador. Por tanto. el programador no dispone de algo como la construcción WHILE o un IFTHEN-ELSE para elegir. la decisión de incluir u omitir ciertos tipos de datos que pueden tener una significativa influencia en la forma en que el Lenguaje es usado. los lenguajes "mas jóvenes" desaconsejan (o prohíben) el uso de las sentencias GOTO como mecanismo de control inferior. procesamiento y salidas de Datos. de entender e implementar. el cual tiene sus raíces en los comienzos de la historia de los lenguajes de programación. F} + operaciones lógicas (Inteligencia Artificial). la decisión de usar u omitir conceptos de programación o modelos.adjudica tradicionalmente a los lenguajes compilados frente a los interpretados puede pronto ser eliminado. era la única estructura de control disponible. Lo más importante es que la historia nos permite ver la evolución de familias de lenguajes de programación. diseñador e implementador de un lenguaje de programación deben comprender la evolución histórica de los lenguajes para poder apreciar por que presentan características diferentes. debido a la evolución de las maquinas cuyos lenguajes son ellos mismos1lenguajes de alto nivel. cuando se ve un lenguaje como FORTRAN. Concurrente : Aún esta en proceso de investigación. Pero hubo un tiempo en que la GOTO. Con frecuencia el programador es osado a usar combinaciones de conceptos que hacen al lenguaje "DURO" de usar.

en la transición. Esto significa que el American National Standards Institute ha adoptado esa versión del lenguaje como el estándar nacional. la cual fue una evolución de la maquina más antigua de Turing. un algoritmo de Markov o una función recursiva. Esta maquina no solo influyeron en los primeros lenguajes sino que también suministraron el esqueleto operacional sobre el que evoluciono la mayoría de la programación de sistemas. COBOL. Mas sobre este punto. reforzando así el máximo de transportabilidad de programas de una maquina a otra. las maquinas que implementan este lenguaje deben cumplir todas las especificaciones estándares. Una vez que un lenguaje esta estandarizado. nos permite escribir algoritmos en distintos estilos de programación (lenguajes) sin sacrificar ninguna medida de generalidad. Finalmente. Sin embargo.características de diseño e implementación. editadas por Richard Wexelblat. con mucho. conocida ampliamente como "tesis de Church". El lambda calculo de Church dio los fundamentos de la notación funcional de LISP. Esta sección. por ejemplo. el ingles influyo en el desarrollo del COBOL. Por otra parte. LISP. la notación algebraica ordinaria. SNOBOL y los lenguajes ensambladores. mientras que el algoritmo de Markov motivo el estilo de reconocimiento de formas de SNOBOL. mientras que FORTRAN. La arquitectura de computadoras de Von Neumann. influyeron en el diseño de PL/I. y por su estado en el núcleo de la teoría de la computadora. por otra. Una discusión más directa de todos estos primeros modelos no están entre los objetivos de este texto. es el modelo básico de la mayoría de los diseños de computadoras de las ultimas tres décadas. por una parte. cualquier algoritmo que pueda describirse en ingles o castellano puede escribirse igualmente como una maquina de Turing (maquina de Von Neumann). CLASIFICACION DE LOS LENGUAJES DE PROGRAMACIÓN LENGUAJE MÁQUINA: 305 . Para los lectores que estén interesados en conocer con mas detalle la historia de los lenguajes de programación recomendamos las actas de una recién conferencia (1981) sobre este tema. influyo fuertemente en el diseño de FORTRAN y ALGOL. o potencia de programación. ALGO 60. La policía federal de no comprar maquinas que no cumplan la versión estándar de cualquier lenguaje que soporte tiende a "fortalecer" el proceso de estandarización. el mayor comprador de computadoras de la nación. Vemos que FORTRAN I es un ascendente directo de FORTRAN II. es importante apuntar aquí debido a su fundamental influencia en la evolución de los primeros lenguajes de programación. Colectivamente cubren los aspectos más importantes con los que ha de enfrentarse el diseñado de lenguajes y la mayoría de las aplicaciones con las que se enfrenta el programador. puesto que el gobierno es. También varios lenguajes están prefijados por las letras ANS.

denominados bits (abreviatura inglesa de dígitos binarios). las desventajas superan a las ventajas. Poca fiabilidad. lo que hace prácticamente no recomendables a los lenguajes máquina. pero al igual que ellos. siendo sustituido por otros lenguajes más fáciles de aprender y utilizar. Todas las instrucciones preparadas en cualquier lenguaje máquina tienen por lo menos dos partes. El lenguaje de bajo nivel por excelencia es el ensamblador. pero los programas ensambladores traducen antes los símbolos de código de operación especificados a sus equivalentes en el lenguaje 306 . El lenguaje máquina es el conocido código binario. en la codificación de los programas se empleaba el sistema hexadecimal para simplificar el trabajo de escritura. El lenguaje ensamblador es el primer intento de sustituir el lenguaje maquina por otro más similar a los utilizados por las personas. Ventajas del lenguaje máquina: posibilidad de cargar (transferir un programa a la memoria) sin necesidad de traducción posterior. el número de operándoos de una instrucción varia en distintas computadoras. Este intenta desflexibilizar la representación de los diferentes campos. Todas las computadoras tienen un código de operación para cada una de las funciones. que consta de los dos únicos símbolos 0 y 1. que además reducen la posibilidad de cometer errores. Fue el primer lenguaje utilizado en la programación de computadoras. dependen de la máquina en particular. LENGUAJES DE BAJO NIVEL (ensamblador): Son más fáciles de utilizar que los lenguajes máquina. La primera es el comando u operación. En la actualidad. que dice a las computadoras cual es la función que va a realizar. lo que supone una velocidad de ejecución superior a cualquier otro lenguaje de programación. La computadora sigue utilizando el lenguaje maquina para procesar los datos. Gran dificultad para verificar y poner a punto los programas. utiliza el alfabeto binario. Generalmente.El lenguaje máquina es el único que entiende directamente la computadora. se desarrollaron códigos mnemotécnicos para las operaciones y direcciones simbólicas. Los códigos mnemotécnicas son los símbolos alfabéticos del lenguaje maquina. las posiciones (dirección) de memoria implicadas en la operación se denominan instrucciones de máquina o código maquina. ya que esta escrito en lenguajes directamente inteligibles por la máquina (computadora). Desventajas del lenguaje máquina: dificultad y lentitud en la codificación. pero dejo de utilizarse por su dificultad y complicación. Sus instrucciones son cadenas binarias (cadenas o series de caracteres de dígitos 0 y 1) que especifican una operación y. Esa flexibilidad se consigue no escribiendo los campos en binario y aproximando la escritura al lenguaje. que indica a la computadora donde hallar o almacenar los datos y otras instrucciones que se van a manipular. A principios de la década de los 50 y con el fin de facilitar la labor de los programadores. La segunda parte de la instrucción es el operando. Los programas solo son ejecutables en el mismo procesador (CPU).

Después de que el ensamblador convierte el programa fuente en código maquina a este se le denomina programa objeto. El lenguaje de bajo nivel es el lenguaje de programación que el ordenador puede entender a la hora de ejecutar programas. Dar una instrucción a un microprocesador supone en realidad enviar series de unos y ceros espaciadas en el tiempo de una forma determinada. ahorran tiempo y requieren menos atención a detalles. Un modo más fácil de comprender el código máquina es dando a cada instrucción un mnemónico. pues no necesita un intérprete que traduzca cada línea de instrucciones. Visto a muy bajo nivel. Para los programadores es más fácil escribir instrucciones en un lenguaje ensamblador que en código de lenguaje maquina pero es posible que se requieran dos corridas de computadora antes de que se puedan utilizar las instrucciones del programa fuente para producir las salidas deseadas. un lenguaje de muy bajo nivel que es específico de cada microprocesador. Los lenguajes de bajo nivel permiten crear programas muy rápidos. ADD o JUMP. difíciles de aprender.maquina. Ventajas del lenguaje ensamblador frente al lenguaje máquina: mayor facilidad de codificación y. lo que aumenta su velocidad de ejecución. asigna localidades tanto para las instrucciones como los datos. Estos programas de ensamble o ensambladores también permiten a la computadora convertir las instrucciones en lenguaje ensamblador del programador en su propio código maquina. Esta abstracción da como resultado el ensamblador. Se incurren en menos errores y los que se cometen son más fáciles de localizar. su velocidad de calculo. a menudo. Los programas en lenguaje ensamblador son más fáciles de modificar que los programas en lenguaje máquina. Un programa de instrucciones escrito en lenguaje ensamblador por un programador se llama programa fuente. los microprocesadores procesan exclusivamente señales electrónicas binarias. Más importante es el hecho de que los programas escritos en un bajo nivel sean altamente específicos de cada procesador. pero que son. como por ejemplo STORE. En la actualidad los programadores no asignan números de dirección reales a los datos simbólicos. Si se lleva el programa a otra maquina se debe reescribir el programa desde el principio. Tanto el lenguaje maquina como el ensamblador gozan de la ventaja de mínima ocupación de memoria y mínimo tiempo de ejecución en comparación con el resultado de la compilación del programa equivalente escrito en otros lenguajes. simplemente especifican donde quieren que se coloque la primera localidad del programa y el programa ensamblador se encarga de lo demás. Esta secuencia de señales se denomina código máquina. 307 . en general. El código representa normalmente datos y números e instrucciones para manipularlos.

Por lo general se piensa que los ordenadores son máquinas que realizan tareas de cálculos o procesamiento de texto. ya que maneja directamente las posiciones de memoria. Están diseñados para que las personas escriban y entiendan los programas de un modo mucho mas fácil que los lenguajes máquina y ensamblador. En BASIC. Los lenguajes ensamblador tienen sus aplicaciones muy reducidas. Por desgracia para muchas personas esta forma de trabajar es un poco frustrante. Hay un alto nivel de abstracción entre lo que se pide a la computadora y lo que realmente comprende. Los programas escritos en lenguaje de alto nivel pueden ser ejecutados con poca o ninguna modificación en diferentes tipos de computadoras. en el programa se deben describir con el máximo detalle todas las operaciones que se han de efectuar en la maquina para la realización de cualquier proceso. LENGUAJES DE ALTO NIVEL: Estos lenguajes son los mas utilizado por los programadores. La formación de los programadores es más compleja que la correspondiente a los programadores de alto nivel. control de procesos y de dispositivos electrónicos. dado que a pesar de que las computadoras parecen comprender un lenguaje natural. Un programa escrito en lenguaje de alto nivel es independiente de la máquina (las instrucciones no dependen del diseño del hardware o de una computadora en particular). por lo que estos programas son portables o transportables. La descripción anterior es sólo una forma muy esquemática de ver una computadora.Desventajas del lenguaje ensamblador: dependencia total de la maquina lo que impide la transportabilidad de los programas (posibilidad de ejecutar un programa en diferentes máquinas). Existe también una relación compleja entre los lenguajes de alto nivel y el código máquina. se centran básicamente en aplicaciones de tiempo real. El lenguaje ensamblador del PC es distinto del lenguaje ensamblador del Apple Machintosh. como el inglés. sino también el conocimiento del interior de la maquina El programador ha de conocer perfectamente el hardware del equipo. Dado que el ordenador no es capaz de reconocer estas ordenes. 308 . es decir. Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados por elementos de lenguajes naturales. registros del procesador y demás elementos físicos. lo hacen en realidad de una forma rígida y sistemática. es necesario el uso de un intérprete que traduzca el lenguaje de alto nivel a un lenguaje de bajo nivel que el sistema pueda entender. ya que exige no solo las técnicas de programación. el lenguaje de alto nivel más conocido. Todas las instrucciones son elementales. Son lenguajes de programación en los que las instrucciones enviadas para que el ordenador ejecute ciertas órdenes son similares al lenguaje humano. los comandos como “IF CONTADOR=10 THEN STOP” pueden utilizarse para pedir a la computadora que pare si CONTADOR es igual a diez.

Aproximarse al lenguaje natural. nombres de las instrucciones tales como READ. como las de entrada / salida. también denominados lenguajes evolucionados. que es suministrado por el fabricante. El tiempo de ejecución de los programas es mucho mayor. Ada). ya que en cualquiera que se realice habrá lenguajes que pertenezcan a mas de uno de los grupos establecidos. Son más fáciles de mantener. WRITE. pudiendo utilizar un mismo programa en diferentes equipos con la única condición de disponer de un programa traductor o compilador. Además. etc. Lenguajes declarativos. PRINT. para que el programa se pueda escribir y leer de una forma más sencilla. Utilizan instrucciones como unidad de trabajo de los programas (Cobol. de manera que se puedan utilizar siempre que se quiera sin necesidad de programarlas cada vez. además de las diferentes versiones o dialectos que se han desarrollado de algunos de ellos. Ventajas de los lenguajes de alto nivel: el tiempo de formación de los programadores es relativamente corto comparado con otros lenguajes. Es difícil establecer una clasificación general de los mismos. es la siguiente: • • Lenguajes imperativos. surgen con posterioridad a los anteriores (lenguaje máquina. funciones matemáticas. para obtener el programa ejecutable en lenguaje binario de la maquina que se trate. atendiendo a la forma de trabajar de los programas y a la filosofía con que fueron concebidos. etc. ya que se utilizan palabras (en ingles) en lugar de cadenas de símbolos sin ningún significado aparente. entre otros: Lograr independencia de la maquina. Permiten tener una mejor documentación. Pascal. OPEN. que figuran en una especie de librería del lenguaje. Los programas se construyen mediante descripciones de funciones o expresiones lógicas (Lisp.Los lenguajes de alto nivel. Aumento de la ocupación de memoria. 309 . Transportabilidad. Una clasificación muy extendida. Desventajas de los lenguajes de alto nivel: incremento del tiempo de puesta a punto al necesitarse diferentes traducciones del programa fuente para conseguir el programa definitivo. Prolog). No se aprovechan los recursos internos de la maquina que se explotan mucho mejor en lenguajes máquina y ensambladores. La escritura de programas se basa en reglas sintácticas similares a los lenguajes humanos. Incluir rutinas de uso frecuente. manejo de tablas. eliminando muchas de las posibilidades de cometer errores que se daban en el lenguaje maquina. Reducción del costo de los programas. Se puede decir que el principal problema que presentan los lenguajes de alto nivel es la gran cantidad de ellos que existen actualmente en uso. C. lenguajes de bajo nivel o ensamblador) con los siguientes objetivos. no se necesita conocer el hardware especifico de dicha maquina.. Las modificaciones y puestas a punto de los programas son más fáciles.

por lo que es entendido 100% por el ser humano. Lenguajes de alto nivel imperativo. PASCAL. Son los mas utilizados y siguen vigentes en la actualidad (ALGOL 8. Orientados a la inteligencia artificial y al procesamiento de los lenguajes naturales (LISP. COBOL). • • • Para la mejor compresión se harán unas definiciones: Programa: es un conjunto de instrucciones escritas en un lenguaje de programación que indican a la computadora la secuencia de pasos. Diseñados para problemas específicos. Lenguajes orientados al problema. La unidad de proceso es el objeto y en el se incluyen los datos (variables) y las operaciones que actúan sobre ellos (Smalltalk. Primeros lenguajes de alto nivel imperativo (FROTRAN. SQL). principalmente de gestión. Código fuente: esta creado en algún lenguaje de alto nivel. Segunda generación. Quinta generación. • • Otra clasificación que se puede hacer es la de atendiendo al desarrollo de los lenguajes desde la aparición de las computadoras. Este debe estar complementado por su documentación o manuales donde se indica el desarrollo lógico del mismo. Lenguajes naturales. Tercera generación. Orientados básicamente a las aplicaciones de gestión y al manejo de bases de datos (NATURAL. MODULA). C++). Código objeto: es creado por los compiladores y nos sirve como enlace entre el programa fuente y el ejecutable. PROLOG). PL/I.• Lenguajes orientados a objetos. para resolver un problema. que sigue un cierto paralelismo con las generaciones establecidas en la evolución de las mismas: • • Primera generación. Cuarta generación. Lenguajes maquina y ensambladores. El diseño de los programas se basa mas en los datos y su estructura. 310 . suelen ser generadores de aplicaciones. Están desarrollándose nuevos lenguajes con el principal objetivo de aproximar el diseño y construcción de programas al lenguaje de las personas.

Hasta 1961 se mantuvo como monopolio de IBM.9-1978: Programming Language FORTRAN y define dos niveles del lenguaje denominados FORTRAN 77 completo y FORTRAN 77 básico. tratamiento de cadenas de caracteres y edición de informes. Es un lenguaje notorio. Una de sus ventajas es que es un lenguaje compacto y es también ampliamente utilizado para aplicaciones en los negocios que no requieren manejo de grandes archivos de datos. por la facilidad con que permite expresar una ecuación. Incluye. todos los programas se escribían en lenguaje ensamblador o en lenguaje máquina. mini o mainframe. comenzo la portabilidad del lenguaje. FRONTRAN 90. pero posteriormente se fue implementando en ordenadores de otros fabricantes. pero esta limitado en las aplicaciones de gestión. A mediados de los años setenta se proporcionaron virtualmente cada computadora. En 1977 apareció una nueva versión mas evolucionada que se llamo FORTRAN V o FORTRAN 77. entre las que destaca la adoptada en 1966 por el ANSI (American National Standards Institute). Está reflejada en el documento ANS X3. A lo largo de su existencia han aparecido diferentes versiones. Estas características hacer que el lenguaje también sea valido para determinadas aplicaciones de gestión. fue definido alrededor del año 1955 en Estados Unidos por la compañía IBM.198-1991 en la que se incluyen características como la recursividad. Es él más antiguo de los lenguajes de alto nivel. Permite expresar los programas de maneras 311 . FORTRAN Abreviatura de FORmula TRANslator (traductor de formulas). Es un lenguaje especializado en aplicaciones técnicas y científicas. en la que se definieron nuevas reglas del lenguaje y se logro la independencia del mismo con respecto a la máquina. así como otras para la utilización de técnicas de programación estructurada. Muchas de sus características fueron incorporadas mas tarde en el primer lenguaje BASIC. y el hecho que pudieran procesarse programas de FORTRAN muy eficazmente. que FORTRAN 66 se volvió el primer idioma en ser regularizado oficialmente en 1972. Antes de él. tratamiento paralelo de tablas y uso de memoria dinámica. con un sistema FORTRAN 66 normal. y el idioma se hizo tan popular en los años 60. lenguajes de alto nivel. se encuentra en el documento ANS X3. es decir.ALGUNOS LEGUAJES DE PROGRAMACIÓN DE ALTO NIVEL A continuación se presentan varios de los mas conocidos y utilizados. Esto. además. La ultima normalización del lenguaje. siendo el segundo un subconjunto del primero. instrucciones para el manejo de cadenas de caracteres y de archivos. manejo de archivos. Se caracteriza por su potencia en los cálculos matemáticos. Era por consiguiente posible escribir programas en FORTRAN en cualquier sistema y estar bastante seguro que estos pudieran moverse para trabajar en cualquier otro sistema bastante fácil. Esta versión se denominó FORTRAN IV o FORTRAN 66.

A lo largo de su existencia ha sufrido diversas actualizaciones. En FROTRAN 90 algunos rasgos de FROTRAN 77 han sido reemplazados por rasgos mejores.que se satisfacen mas a un ambiente de la informática moderna y han quedado obsoletos muchos de los mecanismos que eran apropiados en FROTRAN 77. y la inexistencia de funciones matemáticas. la extensión excesiva en sus sentencias. comerciales. que facilita el diseño estructurado de los programas. así como en la edición de informes escritos. COBOL ANS-85. en 1974. la necesidad de escribir todos los elementos al máximo detalle. mas seguros y más eficaces. como expresa su nombre (COmmnon Business Oriented Language).23-1974. de proceso de textos. No obstante. se adopta la norma ANS X3. con el objetivo de obtener un lenguaje lo mas general posible en cuanto a su implementación. que ha perdurado hasta su ultima versión. Puede emplear términos comúnmente utilizados en los negocios. e incluso duplicación en algunos casos. se puede afirmar que en la actualidad continua siendo el lenguaje mas utilizado en las aplicaciones de gestión. Posteriormente. PL/I Fue creado a comienzos de los años sesenta por IBM para ser usado en sus equipos del sistema 360. muchos de estos fueron quitados del idioma FORTRAN 95. Inspirándose en los lenguajes ALGOL. COBOL y FORTRAN se desarrollo el PL/I (Programming Language/I) tomando las mejores características de los anteriores y añadiendo algunas nuevas. es autodocumentado y ofrece grandes facilidades en el manejo de archivos. COBOL Es el lenguaje mas utilizado en las aplicaciones de gestión. patrocinado por el Departamento de Defensa de Estados Unidos. de bases 312 . creado en 1960 por un comité denominado CODASYL (COnference on DAta SYstems Languages). útil para aplicaciones técnico-científicas. Entre sus inconvenientes están sus rígidas reglas de formatos de escritura. Sus características más destacables son las siguientes: se asemeja al lenguaje natural (inglés). Su primer estándar fue aprobado por el ANSI en 1968. a fin de disponer de un lenguaje universal para aplicaciones comerciales. El FRONTRAN tiene la ventaja de ser un lenguaje compacto que sirve muy bien para satisfacer las necesidades de los científicos y los estadísticos de los negocios.

útil para aplicaciones técnicas y de gestión. con el objetivo principal de proporcionar a los principiantes un lenguaje fácil de aprender. 313 . Esto. Un procedimiento puede representar por completo a un programa pequeño o un “bloque de construcción” o modulo de un programa más complejo. Kemeny y Thomas E. No obstante. Kurtz del Dartmouth College (Estados Unidos) en 1965. Que sé interactivo. basándose en el lenguaje ALGOL.de datos y de programación de sistemas. al tamaño de su compilador que hasta ahora solo se podía instalar en grandes equipos. Fue el primer gran lenguaje creado después de haber sido ampliamente diseminados los conceptos asociados con la programación estructurada. por ello. Existen multitud de interpretes y compiladores del lenguaje. Los enunciados se combinan en procedimientos. que posee grandes facilidades para la programación de sistemas y diseño grafico. Entre sus novedades esta su gran libertad en el formato de escritura de los programas: soporta la programación estructurada y diseño modular. Es un lenguaje interactivo muy popular que tiene una aceptación debido a la facilidad de su uso. como se indica en su nombre Beginner's All-purpose Symbolic Instruction Code (Código de instrucciones simbólico de propósito general para principiantes). Su nombre proviene del filosofo y matemático francés del siglo XVII. ha hecho que su utilización sea haya extendido enormemente. Blaise Pascal. a la vez que ha propiciado el surgimiento de una gran diversidad de diversiones que extienden y se adaptan a necesidades particulares el lenguaje original. y se emplea en entornos académicos y de investigación. Entre sus principales novedades están las de ser un lenguaje interpretado y de uso conversacional. no ha superado a sus progenitores en sus aplicaciones especificas. es capaz de gestionar errores y de procesar multitareas. permite la comunicación directa entre el usuario y el sistema de computo durante la preparación y uso de los programas. que invento la primera maquina tipo mecánico para sumar. es un idioma simple para aprender y fácil de traducir. unido a la popularización de las microcomputadoras y computadoras personales. con el tiempo ha llegado a ser un lenguaje ampliamente utilizado en todo tipo de aplicaciones. Compilado y estructurado. BASIC El lenguaje BASIC fue diseñado por los profesores John G. El elemento básico de este programa es el enunciado que termina en punto y coma. PASCAL Fue creado por el matemático suizo Nicklaus Wirth en 1970. Es un lenguaje flexible y sofisticado. Se trata de un lenguaje de programación complejo. en cuyo diseño había participado en los años sesenta. debido en parte a su amplitud y. Aunque en principio la idea del diseñador era proporcionar un lenguaje adecuado para la enseñanza de los conceptos y técnicas de programación.

con la intención de incluir las necesidades de la programación de sistemas y dar respuestas a las criticas recibidas respecto de las carencias del lenguaje PASCAL. Estos habían diseñado con anterioridad el sistema operativo UNIX. creación de librerías. etc. y entre sus características destaca el uso de programación estructurada para resolver tareas de bajo nivel. así como la amplia librería de rutinas de que dispone. Aunque. Además de incluir las características de su predecesor. En 1979 se realiza una versión que pasa a denominarse MODULA-2 y que perdura en la actualidad. de proceso de textos. La utilización optima de este lenguaje se consigue dentro de su entorno natural. MODULA-2 El lenguaje MODULA fue diseñado en 1977 bajo la dirección de Nicklaus Wirth. El lenguaje C reúne características de programación intermedia entre los lenguajes ensambladores y los lenguajes de alto nivel. como acabo de decir. programación concurrente. este nuevo lenguaje incorpora las principales carencias de aquel. con el cual escribir su sistema UNIX. programación estructurada y diseño descendente. mejora el manejo de cadenas de caracteres. que ese el sistema operativo UNIX. Con este nuevo enfoque surge la nueva metodología que aumenta las posibilidades de la programación bajo nuevos conceptos. Para 1983 dicha denominación cambio a la de C++. inspirado en el lenguaje Simula67 adicionó las características de la programación orientada a objetos incluyendo la ventaja de una biblioteca de funciones orientadas a objetos) y lo denomino C con clases. posteriormente su uso se ha extendido a ablaciones técnico-científicas. como la posibilidad de compilación separada. entre otros. y su intención al desarrollar el lenguaje C fue la de conseguir un lenguaje idóneo para la programación de sistemas que fuese independiente de la maquina. además de haberse convertido en predecesor de otros lenguajes más modernos. como MODULA-2 y ADA. por lo que resulta ser el lenguaje preferido para el desarrollo de software de sistemas y aplicaciones profesionales de la programación de computadoras.Aporta los conceptos de tipo de datos. Ken Thompson. de bases de datos. En 1980 Bjarne Stroustrup. C Este lenguaje fue creado en 1972 por Dennis Ritchie a partir del trabajo elaborado por su colega de los laboratorios Bell Telephone. con gran poderío basado en sus operaciones a nivel de bits (propias de ensambladores) y la mayoría de los elementos de la programación estructurada de los lenguajes de alto nivel. creador también el lenguaje PASCAL. fue diseñado inicialmente para la programación de sistemas. los procedimientos de entrada/salida y la gestión de la 314 .

LOGO En informática. Su diseño fue encargado por el Departamento de Defensa de Estados Unidos. debido a sus cualidades didácticas. posee grandes facilidades para la programación de sistemas. De estos. Los escritores lo llamaron inflexible e ineficiente. Entre las características del lenguaje se encuentran la compilación separada. los tipos abstractos de datos. y fue considerado durante mucho tiempo el lenguaje modelo para la investigación de la inteligencia artificial (IA). ADA Es él ultimo intento de obtener un único lenguaje para todo tipo de aplicaciones. Un lenguaje de programación para ordenadores o computadoras orientado a la generación de listas. además. en tanto que sus favorecedores lo consideraban un gran avance en la tecnología del software. Este lenguaje se sigue utilizando con frecuencia en investigación y en círculos académicos. etc. en el que cada expresión es una lista de llamadas a funciones. El lenguaje LISP constituyó un cambio radical con respecto a los lenguajes procedurales (FORTRAN. desarrollado en 1968 por Seymour Papert en el MIT. LISP En informática. Una característica 315 . El LISP es un lenguaje interpretado. en honor de la considerada primera programadora de la historia. programación estructurada. etc. aunque el Prolog ha ganado terreno durante los últimos años. acrónimo de List Processing. ha sido ampliamente aceptado por la comunidad universitaria como herramienta idónea para la enseñanza de la programación. Como principal inconveniente presenta su gran extensión. el ALGOL y el PL/I. se seleccionaron como base para la creación del nuevo lenguaje el PASCAL. para su uso en servicios militares. ALGOL) que se desarrollaban por entonces. La estandarización del lenguaje se publico en 1983 con el nombre de ADA.memoria. libertad de formatos de escritura. desarrollado en 1959-1960 por John McCarthy y usado principalmente para manipular listas de datos o de símbolos. Augusta Ada Byron. e incluso los últimos avances de técnicas de programación. condesa de Lovelace. a la empresa Honeywell-Bull después de una selección rigurosa entre varias propuestas realizadas sobre una serie de requerimientos del lenguaje y de haber evaluado negativamente veintitrés lenguajes existentes. programación concurrente. que se usa frecuentemente en la enseñanza de lenguaje de programación a niños. También. lenguaje de programación de ordenadores o computadoras.

Logo está considerado como un lenguaje para la formación. Un grupo internacional de matemáticos europeos y americanos. Fue orientado al uso de quienes participan en proyectos científicos y matemáticos. Su uso esta aun limitado sobre todo para las aplicaciones de negocios que son procesadas en pequeñas computadoras. el RPG es un lenguaje de propósito limitado porque los programas objeto generados por el compilador de RPG siguen sin desviación. que permiten al programador hacer dibujos simples dirigiendo los movimientos de la tortuga en la pantalla hacia adelante. Este programa fue desarrollado por Kenneth Inverson en el año 1961 para resolver problemas matemáticos.importante de Logo son los gráficos de tortuga. aunque esta en desuso. fue el primero que incorporo conceptos claves para la programación actual. hacia la derecha o la izquierda. Una ventaja del RPG es la relativa facilidad para aprenderlo y usarlo. un ciclo de procesamiento básico. ALGOL El ALGOL (ALGOritmic Language) fue presentado en 1958. Este lenguaje fue desarrollado por IBM en 1964. el programador (normalmente un niño o una niña) empieza a descubrir las características más sofisticadas del lenguaje. Una vez que dominan el entorno sencillo del dibujo. RPG Report Program Operator fue introducido en 1960 como un lenguaje para duplicar rápidamente el enfoque de proceso utilizado con un equipo de tarjeta perforada. APL Sus siglas significan (A Programming Language). Fue el primer lenguaje de programación de proceso estructurado de alto nivel. Dado que la lógica de la programación es fija. pretendían crear un lenguaje común normalizado que les permitiera el intercambio de algoritmos. generar informes comerciales o de negocios. a pesar de que algunas empresas intentaron que tuviera una mayor aceptación en los círculos profesionales de programación. que están basadas fundamentalmente en el lenguaje de programación LISP. Un Lenguaje de Programación. el RPG esta diseñado para generar los reportes de salida que resultan del proceso de aplicaciones de negocios. A pesar de las aplicaciones de actualización de archivos. Este lenguaje se caracteriza por su brevedad y 316 . existen menos reglas formales que en otros lenguajes. Como su nombre lo sugiere.

El entorno de desarrollo merece similar valoración y ha sido copiado muchas veces. IBM desarrolló la familia de productos VisualAge para SMALLTALK en colaboración con Object Technology (antiguamente ParcPlase-Digitalk) e IBM permanecen como los distribuidores dominantes de entornos de desarrollos en SMALLTALK. de alta velocidad. Se caracteriza por utilizar un mínimo de sintaxis. SMALLTALK fue desarrollado dentro del Grupo de Investigación del Aprendizaje en el Centro de Investigación de Xerox en palo Alto a comienzos de los 70. Sin embargo la distribución generalizada a la comunidad de desarrollo no sucedió hasta la fundación de una nueva compañía llamada ParcPlace Systems Inc. Algunos nuevos SMALLTALK se hallan en etapa de desarrollo. Este lenguaje de programación es utilizado fundamentalmente para crear aplicaciones destinadas a instrucciones asistidas por computadoras. SMALLTALK no es solo un hermoso lenguaje de computación orientado a objetos. basado en PC. lenguaje o aprendizaje de investigación programada) creado en 1969. . Los cambios se graban instantáneamente y los mismos pueden probarse rápidamente. Las principales ideas de SMALLTALK se le atribuyen generalmente a Alan kay con raíces en Simula. Un segundo SMALLTALK (SMALLTALK 4) fue desarrollado por Digitalk en los Angeles California. los pop-up menús y la clase BitBlt. 317 . Dirigida por Adele Goldberg. Muchos conceptos de SMALLTALK como los browsers y las técnicas de browsing han encontrado hoy su rumbo en muchas herramientas de desarrollo de la generación X. Un programa de licenciamiento de Xerox y Xerox Special Information Systems. SMALLTALK SMALLTALK. LISP y SketchPad.por su capacidad de generación de matrices y se utiliza en el desarrollo de modelos matemáticos. (OTI) desarrolló un conjunto de herramientas para proveer el control de inversiones y el manejo de configuraciones en grandes proyectos. PILOT Programmend Inquiry Language Or Teaching (Consulta. desarrollado por SMALLTALK poseen un factor “divertido-de-usar”. Lenguaje de Programación orientado a objetos integrados con un entorno de desarrollo multiventana. desde el Sistema Operativo de Apple MS Windows y Borland Pascal (en una memoria extensión). Dan Ingalls escribió el código de las primeras ventanas solapables. Este SMALLTALK estaba dirigido a cubrir la necesidad de un producto pequeño. Object Technology International Inc. Adele Goldberg y Dave Robson escribieron los manuales de referencia para SMALLTALK y fueron miembros clave del equipo de desarrollo.

Delphi tiene las siguiente características: • • • • • • • Rendimiento . Reusabilidad de componentes. Es un lenguaje extremadamente poderoso y eficiente. que sirve para los gráficos de negocio. orientados a objetos interactivos. portátiles. para aprender C++ significa aprender todo de C. Manejo de Base de Datos escalables. C+ + es un super conjunto de C. Empresa e Internet . DELPHI Es un entorno de programación visual orientado a objetos para desarrollo rápido de aplicaciones (RAD) de propósito general. LENGUAJE C++ Se pronuncia “ce plus plus”. incluyendo aplicaciones cliente/servidor. Fue desarrollada por Bjarme Stroustrup en los Bell Laboratories a principios de la década de los 80. creado en 1970. por ejemplo contiene un TeeChart. con la única diferencia que Delphi 3 es mucho más mejorado.FORTH Lenguaje de cuarta generación.con el mejor y más rápido compilador del mundo. para mejorar la entrega de información a través de Internet. 318 . Delphi es la versión de Delphi para 32 bits (delphi 3). Arquitectura multinivel abierta y dimensionable. un verdadero entorno orientado a objetos.soluciones cliente y servicio Desarrollo de aplicaciones rápidas (RAD). etc. Es un lenguaje de alto nivel del cual derivan en la actualidad casi todos los lenguajes empleados en los robots. Diseminación de información de base de datos en la Web a una gran velocidad. luego aprender programación orientada al objeto y el uso de éstas con C++. JAVA Es un lenguaje de programación para crear programas seguros. C++ introduce la programación orientada al objeto en C. es decir son casi los mismos. es un lenguaje estructurado e interpretado de fácil ampliación y ofrece una alta funcionalidad en un espacio reducido.

se reducía su tamaño y crecía su capacidad de procesamiento. Eran programadas en lenguaje de máquina. JAVASCRIPT es un lenguaje diseñado especialmente para ejecutarlo en internet. con la idea de capitalizar la fama de Java. EVOLUCION DE LOS LENGUAJES DE PROGRAMACIÓN Primera Generación En esta generación había un gran desconocimiento de las capacidades de las computadoras.JAVASCRIPT Este lenguaje de programación originalmente fue llamado LIVESCRIPT. 1 En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). al permitir a la página realizar algunas tareas por si misma. las computadoras seguían evolucionando. Las características de la segunda generación son las siguientes: • • Están construidas con circuitos de transistores. Se programan en nuevos lenguajes llamados lenguajes de alto nivel. También en esta época se empezó a definir la forma de comunicarse con las computadoras. se utilizó para procesar el censo de 1950 en los Estados Unidos. Y se conoce como la primera generación. lenguaje desarrollado por Sun Microsystems. que disponía de mil palabras de memoria central y podían leer cintas magnéticas. Segunda Generación Cerca de la década de 1960. pero luego fue renombrado con el nombre de JAVASCRIPT. En 1951 aparece la UNIVAC (NIVersAl Computer). 319 . puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. . Estas máquinas tenían las siguientes características: • • Estas máquinas estaban construidas por medio de tubos de vacío. fue la primera computadora comercial. sin necesidad de estar sobrecargando el servidor del cual depende. Éste es un complemento ideal del lenguaje HTML. que recibía el nombre de programación de sistemas. Esta generación abarco la década de los cincuenta.

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Tercera generación Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3 Las características de esta generación fueron las siguientes:
• •

Su fabricación electrónica esta basada en circuitos integrados. Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones). Cuarta Generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". Quinta Generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la

320

capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.

Luz Neón
El neón (del griego neos, nuevo) fue descubierto por William Ramsay y Morris Travers en 1898 por la destilación fraccionada del aire líquido. El neón es un elemento químico de numero atómico 10 y símbolo Ne. Es un gas noble, incoloro, prácticamente inerte, presente en trazas en el aire, pero muy abundante en el universo, que proporciona un tono rojizo característico a la luz de las lámparas fluorescentes en las que se emplea. Sus principales características son: Es el segundo gas noble más ligero, y presenta un poder de refrigeración, por unidad de volumen, 40 veces mayor que el del helio líquido y tres veces mayor

321

que el del hidrógeno líquido. En la mayoría de las aplicaciones el uso de neón líquido es más económico que el del helio.
   

Peso atómico: 20,183 uma Punto de ebullición: 27.1 K (-246 °C) Punto de fusión: 24.6 K (-248,6 °C) Densidad: 1,20 g/ml (1,204 g/cm3 a -246 °C)

El neón se encuentra usualmente en forma de gas monoatómico. La atmósfera terrestre contiene 15,8 ppm y se obtiene por subenfriamiento del aire y destilación del líquido criogénico resultante. El neón es el quinto elemento más abundante en el universo por masa, luego del hidrógeno, helio, oxígeno y carbono. Se encuentra en pequeñas cantidades en la atmósfera y en la corteza terrestre se halla en una proporción de 0,005 ppm. Se sabe que el neón se sintetiza en estrellas masivas durante las últimas etapas de éstas como gigantes o supergigantes rojas (durante la fase de fusión de carbono y oxígeno en neón y magnesio), o a veces como variables azules luminosas o estrellas Wolf-Rayet.

LUZ NEON Y LAMPARAS DE NEON. Son lámparas de descarga de gas que contiene gas neón a baja presión, se aplica a otros tubos rellenos de otros gases nobles para producir colores distintos. ¿Cómo se hace para que tenga luminosidad neón una lámpara? Se hace pasar por el tubo una pequeña corriente eléctrica, que puede ser alterna o continua, provocando que éste emita un brillo rojo anaranjado. La fórmula exacta del gas es típicamente la mezcla Penning (99,5% neón y 0,5% argón), que tiene un voltaje de ruptura menor que el neón puro. Las lámparas de neón son dispositivos de resistencia negativa, en el que incrementar el flujo de corriente por el dispositivo incrementa el número de iones, decrementando así la resistencia de la lámpara y permitiendo que fluyan corrientes mayores. Debido a esto, la circuitería eléctrica externa a la lámpara de neón debe proporcionar un método de limitar la corriente del circuito o éste se incrementará hasta que la lámpara se autodestruya. Para lámparas del tamaño de intermitentes, se usa convencionalmente un resistor para limitar la corriente. Para las de tamaño rótulo, el transformador de alto voltaje suele limitar la corriente disponible, a menudo contando con una gran cantidad de inductancia de fuga en la bobina secundaria.

322

Cuando la corriente que circula por la lámpara es menor que corriente del circuito de descarga de corriente más alto, la descarga luminosa puede volverse inestable y no cubrir toda la superficie de los electrodos. Esto puede indicar envejecimiento de la lámpara, y se aprovecha para las lámparas de neón decorativas que simulan una llama. Sin embargo, mientras una corriente demasiado baja provoca parpadeo, una corriente demasiado alta incrementa el desgaste de los electrodos estimulando la pulverización catódica, que recubre de metal la superficie interna de la lámpara y provoca que se oscurezca. El efecto de parpadeo está provocado por las diferencias en el potencial de ionización del gas, que depende del espacio entre los electrodos, la temperatura y la presión del gas. El potencial necesario para disparar la descarga es mayor que el necesario para sostenerla. Cuando no hay corriente suficiente para ionizar todo el volumen de gas en torno a los electrodos, sólo ocurre una ionización parcial y el brillo aparece sólo en torno a parte de la superficie de los electrodos. Las corrientes convectivas hacen que las zonas brillantes asciendan, de forma no muy diferente a las descarga en una escalera de Jacob. Un efecto de fotoionización puede observarse aquí, a media que la zona del electrodo cubierta con la descarga puede incrementarse por la luz brillando en la lámpara. APLICACIONES DE LAS LAMPARAS DE NEON. La mayoría de las lámpara de neón pequeñas, como las comunes NE-2, tienen una tensión disruptiva de entre 90 y 110 voltios. Esta característica permite su uso como reguladores de voltaje o dispositivos de protección de sobretensión simples. En los años 1960 General Electric, Signalite y otras marcas hicieron pequeñas lámparas de neón extra-estables para usos electrónicos. Idearon incluso circuitos lógicos digitales, memorias binarias y divisores de frecuencia usando neones. Estos circuitos aparecieron en órganos electrónicos de los años 1950, así como en alguna instrumentación.

323

Las lámparas de neón pequeñas se usan como indicadores en equipos electrónicos. Las mayores se usan en rótulos de neón, ya que debido a su bajo consumo eléctrico son buenas luces nocturnas. Debido a su relativamente rápido tiempo de respuesta, en los primeros desarrollos de la televisión las lámparas de neón fueron usadas como fuente de luz en muchas pantallas de televisión mecánica. También se usaron para muchos otros fines: dado que una lámpara de neón puede actuar como oscilador de relajación con la adición de una resistor y un capacitor, puede ser usada como una lámpara destellante simple u oscilador de sonido. Las lámparas de neón con electrodos de diversas formas llamadas tubos Nixie también se usan como displays alfanuméricos.

En las lámparas excitadas con corriente alterna, ambos electrodos producen luz, pero en las excitadas con corriente continua sólo brilla el electrodo negativo, por lo que puede usarse para distinguir entre fuentes de corriente alterna y continua, así como para asegurar la polaridad de las fuentes de continua. Las lámparas de tamaño pequeño también pueden rellenarse con argón o xenón en lugar de neón, o mezclado con ése. Aunque la mayoría de las características operativas permanecen iguales, las lámparas emiten una luz azulada (incluyendo alguna ultravioleta) en lugar del característico brillo rojo
324

anaranjado del neón. La radiación ultravioleta puede también usarse para excitar un recubrimiento de fósforo del interior de la bombilla y proporcionar así una amplia gama de diversos colores, incluyendo el blanco. Una mezcla de neón y kriptón puede usarse para obtener luz verde. También se utilizan en el arte, en anuncios publicitarios, en anuncios luminosos, y en tubos que se instalan debajo de los coches para que sean llamativos Neón para vitrinas y paredes En los últimos años se ha desarrollado un nuevo nicho en el que se emplea, profusamente, el NEON. Hay pocas cosas en el mercado que funcionen tan bien como los anuncios de NEON. La mercadotecnia moderna emplea el NEON para la realización de pequeños anuncios para las llamadas vitrinas, vidrieras, ventanas (según cada país) y también para paredes; es decir, ambos para interiores de comercios, locales o establecimientos.

Este nicho se ha desarrollado teniendo en cuenta que, dos de cada tres decisiones de compra, se toman en las tiendas. Por ello los comerciantes de todo el mundo se han dado cuenta de que la publicidad en el establecimiento comercial es la forma más efectiva de llegar al consumidor y tener un impacto en la decisión de compra. La publicidad directa en el establecimiento comercial es un instrumento de venta efectiva, porque proporciona PUBLICIDAD en el mejor lugar y en el mejor momento, donde el producto está a la venta y el comprador está listo para comprar.

325

Para todo esto nada mejor que el NEON para lograr óptimos resultados; inalcanzables con otros sistemas publicitarios que aspiran, sin fortuna por supuesto, sustituir al NEON. Así, una infinidad de marcas de aguas minerales, gaseosas, cervezas, ropa, etc., se promocionan con esta sencilla, económica e impactante manera moderna de empleo del NEON; nos referimos a los pequeños anuncios colgantes, con transformadores de reducidas dimensiones, construidos sólo con tubos de NEON soportados sobre sencillas parrillas metálicas casi invisibles. LASER NEON El láser de Helio-Neón fue el primer láser de gas construido y actualmente sigue siendo uno de los láseres más útil y frecuentemente utilizado. Esto a pesar del constante empuje de los láseres de semiconductores, que realizan cada vez más funciones que antes eran hechas con láseres de He-Ne. Los centros activos de este láser son los átomos neutros de neón, pero el bombeo de estos se realiza preferentemente a través de los átomos de helio.

CARACTERISTICAS ESPECTRALES DE LASER HELIO-NEON

326

En el diagrama de energía del sistema He-Ne se muestran las tres transiciones láser más importantes, las cuales ocurren 3.39 μm, 1.15μm y 0.638μm. Puede notarse que los niveles 21S y 23S del Helio prácticamente coincide con los niveles 3s y 2s del Ne. Como enseguida veremos, este hecho es fundamental para el bombeo de los átomos de neón. Los niveles 3s y 2s del neón poseen una vida media del orden de 10-7 segundos y pueden realizar transiciones radiactivas a los niveles 3p y 2p. Estos últimos niveles poseen una vida media del orden de 10-8 segundos y por tanto se puede establecer una inversión de población entre estos y los niveles 3s y 2s. Aunque cada uno de los niveles 3s, 2s y 1s se compone de hecho de cuatro subniveles y cada uno de los 3p y 2p de diez subniveles, las longitudes de onda
327

de emisión predominante son para la transición 3s -> 3p , λ =3.39 μm, para 3s-> 2s , λ=0.6328 y para 2s -> 2p, λ=1.15mm. El vaciado de los niveles inferiores de la transición láser se realiza por medio de las transiciones espontáneas de los niveles 3p y 2p al nivel 1s. Este último nivel es meta-estable y, por tanto, a menos que por algún mecanismo sea constantemente vaciado al nivel base del neón 1p, el nivel 1s podrá saturarse e interrumpir la oscilación láser (emisión láser).

LINEAS ESPECTRALES Las líneas espectrales son el resultado de transiciones espontáneas de electrones en los átomos del material desde el nivel de energía más alto al más bajo. El láser Helio-Neón depende de la transición de los niveles de energía del gas neón. En este caso hay varias posibles líneas de longitudes de onda en el espectro. Algunas de mas fuerte intensidad están muy cerca de la línea 0.6328 μm línea común del láser He-Ne rojo, pero esta no es la más fuerte. Hay también muchas líneas en el infrarrojo y algunas en la región del amarillo y en el anaranjado. Hay muchas posibles transiciones en el neón del estado excitado al estado de más baja energía que puede resultar en una emisión láser, donde las más importantes se mencionan en esta tabla.

FUNCIONAMIENTO DE LASER DEL HELIO-NEON

El bombeo del láser de He-Ne se realiza por medio de las colisiones que una descarga de electrones producida dentro del gas tiene fundamentalmente con los átomos de helio. Como resultado de estas colisiones, los átomos de helio son excitados a los niveles superiores 21S y 23S. La inversión de población en el neón ocurre debido a colisiones con átomos
328

excitados de helio. Como resultado de estas colisiones, los átomos de helio pasan a su estado base y los átomos de neón pasan a los estados 3s y 2s, creando una inversión de población entre estos estados y los estados 3p y2p. Entre estos niveles es donde la oscilación láser (emisión láser) puede ocurrir. La realización de una transferencia de energía entre átomos de helio y neón ocurre debido a: a) La proximidad de los niveles excitados de energía del helio y del neón, b) El hecho de que los estados 21S y 23S del helio son meta-estables, lo cual garantiza un tiempo suficientemente largo para colisionar con átomos de neón antes de que el helio decaiga espontáneamente; c) La más elevada presión del helio en la mezcla He-Ne, lo cual también reduce la probabilidad de que la excitación ocurra en la dirección opuesta, es decir Ne -> He. El vaciado de los átomos de neón del estado meta-estable 1s a su estado base ocurre fundamentalmente debido a colisiones con las paredes del tubo láser. Esto causa que al aumentar el diámetro del tubo la potencia de salida no aumenta, si no que disminuye.

329

ABSORCION Y AMPLIFICACION EN EL LASER He-Ne Mientras la luz se mueve a través del medio activo, tienen lugar dos procesos diferentes sobre la radiación: absorción y amplificación. En un láser de He-Ne estándar, la amplificación producida por el medio activo es del orden del 2%. Durante un paso a través del medio activo (desde un espejo al otro) la cantidad de radiación dentro, aumenta en un factor de 1.02. Por lo tanto, para conseguir amplificación de luz, todas las pérdidas, incluyendo las colisiones de los átomos excitados con las paredes del tubo de gas, absorción por parte de otras moléculas, etc. deben ser menores del 2%. El láser de He-Ne es un láser de 4 niveles, por lo que el tiempo de vida del nivel láser inferior debe ser muy corto. En el gas Ne, que es el gas activo del láser, la transición (decaimiento) desde el nivel láser inferior no es suficientemente rápida, pero se acelera por las colisiones con las paredes del tubo. Debido a que el número de colisiones con las paredes del tubo aumenta a medida que el tubo de hace más estrecho, la ganancia del láser es inversamente proporcional al radio del tubo. Por lo tanto, el diámetro del tubo de un láser de He-Ne debe ser lo más pequeño posible. La baja ganancia del medio activo en un láser de He-Ne limita la potencia de salida a potencia baja. En prototipos de laboratorio se consiguen potencias de salida del orden de 100 [mW], pero los láseres comerciales están disponibles sólo en un rango de salida del orden de 0.5-50 miliwatios [mW]. El acoplador de salida del láser de He-Ne es un espejo con un recubrimiento que transmite alrededor del 1 % de la radiación de la salida. Esto significa que la potencia dentro de la cavidad óptica es unas 100 veces mayor que la potencia emitida.

330

ESTRUCTURA DEL LASER HELIO-NEON El láser de Helio Neón tiene tres estructuras principales: a) Tubo de Plasma del Láser de He-Ne: El delgado tubo interior tiene un diámetro de alrededor de 2 [mm] y una longitud de decenas de centímetros. y 10-15 % de Neón gas. Los propósitos del tubo exterior son: o Conseguir una estructura estable que proteja de los movimientos el tubo interior y los espejos del láser. La mezcla de gases es 85-90% de Helio gas. o Actuar como gran reserva de gas que reponga el Neón gas que está siendo absorbido por el cátodo. El proceso láser. una proporción de 1:6 a 1:10. está confinado dentro del tubo interior que está lleno de la mezcla de gases. que produce la radiación electromagnética.5 [cm] y está sellado por fuera. 331 . El tubo interior está rodeado por un tubo exterior grueso con un diámetro de alrededor de 2.

En los extremos del tubo. Está compuesta por un espejo plano.01 atmósferas (» 10 [torr]). y un segundo espejo cóncavo que refleja el 100 %. los electrodos están conectados a una fuente de potencia de alto voltaje (AC o DC).La presión del gas es 0. b) Cavidad Óptica del Láser de He-Ne: La cavidad de un láser de He-Ne convencional es una cavidad óptica semiconfocal. Este espejo cóncavo tiene una distancia focal igual a la longitud de la cavidad. La disposición de los espejos provoca que la radiación esté en planos casi paralelos 332 . que refleja alrededor del 98 % de la luz que le llega.

Este voltaje se conoce como Voltaje de Ignición del láser. de forma que se emplea un suministro de corriente estable. Esto se produce por un pulso de máximo voltaje de la fuente de potencia. se necesita ionizar el gas dentro del tubo. En el momento del comienzo de la descarga. la resistencia eléctrica del tubo cae de repente a un valor bajo.000 [Voltios].c) Fuente de Potencia del Láser de He-Ne: Los láseres de He-Ne que producen una potencia de 1 [mW] (el tipo estándar que usan los estudiantes para experimentos de laboratorio). El láser necesita una corriente constante (suministro constante de electrones). Esto 333 . habitualmente utilizan una fuente de potencia de Alto Voltaje DC (Corriente directa) de 2. Para iniciar la acción láser.

Porque nació para intemperie. se conecta una Resistencia lastre muy cerca del ánodo. 11. El papel del resistencia lastre es limitar la corriente a través del tubo cuando la resistencia cae. 6. Porque permitió ir gestando la creación de infinidad de rubros y oficios. Porque inauguró la cartelera luminosa en 1910… Antes. 334 . Porque dio luz propia a lo artístico de la artesanía de la época. Porque es de encendido instantáneo. 12. solo carteles pintados. 5. Porque funcionando con secuencias. en serie con la fuente de potencia. mientras la corriente aumenta. Para superar este problema. Porque se adapta a cualquier forma. 2. Porque es de bajo consumo. 8. según la ley de Ohm esto es una resistencia eléctrica negativa (Disminuye el voltaje con aumento de la corriente). Por lo tanto. LAS 100 RAZONES VALIDAS PARA LA VIGENCIA DEL NEON 1.significa que el voltaje disminuye repentinamente. Porque dio movimiento a la estática publicitaria. mejora su rendimiento. Porque escribió con luz brillante. 9. 3. 7. Porque viene en vidrio transparente. 4. 10. Porque nació distinta… Lámpara sin filamento.

25. Porque hay misterios en su elaboración.13. 17. es una obra de arte. 23. Porque brilla de noche. Porque es fácil de vender… Todo el mundo la conoce. Porque inauguró la fluorescencia. 29. Porque es frágil. Porque es agradable a la vista. 28. es de 360º. 27. Por la calidez de sus reflejos. Porque un cartel con Neón. 38. Por la artística que la identifica. Porque es decorativa. Porque es reparable. Por su brillo particular. 20. Porque inventó la luz difusa. 22. 24. Porque identificó ciudades. 19. Porque no funciona con 110 volts. 39. Porque inauguró las gargantas de iluminación. 34. 335 . 15. 31. 37. Porque brilla bajo la lluvia. 30. 32. es de 30. 33. Porque dibuja y dibujó con luz brillante. 26. Porque es insinuante. 21. Porque fue testigo de infinidad de acontecimientos nocturnos alrededor del planeta. 36. Porque no le afecta el viento. Porque el haz de luz que genera. Porque no le afecta el sol. Por ser varilla de vidrio con pintura interior fluorescente.000 horas. Porque identificó esquinas céntricas. 16. 18. 14. Porque es luz de Cátodo Frío. 35. Porque su vida útil. pero su efecto es fuerte.

Porque su vida útil se verifica en los 100 años que está cumpliendo. 56. Porque es fácil de instalar. a quien le guste. Porque da movimiento y volumen en la carteleria actual. 51. Porque. Porque el frío no le hace mal. 41. Por ser la publicidad más económica. Porque no le hace mal el calor. 61. 49. Porque ver hacerla parece fácil. 65. se puede tocar. 52.40. también funciona pero dura poco… 66. puede aprender a hacerlo. Porque estando encendida. Porque los artistas la quieren mucho. 50. Por su variedad de intensidades. pero no lo es. Porque no funciona con 220 volts. 44. 336 . Porque brilla en los caminos… 58. Porque identificó esquinas barriales. 46. 60. Porque a la gente le gusta. 53. Un Siglo lo avala. Porque hay obras de arte con luz de Neón. 54. Porque estrenó variedad de colores en luz brillante. 62. Por su variedad de colores. 55. 43. 47. Porque siempre fue humilde… No habla mal de sus jóvenes vecinos. Porque supo convivir con sus “nuevos vecinos”. Porque realza contornos. 63. Por ser tan fiel que mal instalado. 42. Porque identifica marcas. 59. 48. 64. 57. Porque iluminó noches gloriosas. sabiendo que hay lugar para todos. Porque todos sus nuevos vecinos nacieron pensando en ella. 45. Porque no contamina la atmósfera en su elaboración. Porque emociona cuando se enciende.

Porque hacen referencia a ella en distintas composiciones musicales. Porque viene en varillas de vidrio de color (vitre. 83. le permite crear. Porque en la actualidad. Porque viene en distintos diámetros. Porque la nieve. 93. 92. 73. 71. 69. Porque sus nuevos vecinos. 89. 68. solo hay que animarse… 77. Porque no contamina la atmósfera en su funcionamiento. Porque al diseñador le permite expresar. Porque quiere ser reglamentada para que no la maltraten. Porque ilumina noches gloriosas… 76. 75. Porque a un artista. a bajísimo amperaje. Porque es buena. y también de acá para allá… 90. Porque está instalada en las memorias… 91. Porque es dimerizable. o es él.. 78. 80. Por su glamour en sensaciones.67. 84. de las de antes… 337 . Porque funciona entre 1 y 15 Kv. y verla brillar. Porque no hay que tenerle miedo. todos los habitantes del planeta la conocen. 85. Porque es reconfortante participar en un proyecto. le hacen mala prensa para tratar de ubicarse. Porque es seductora. 79. Porque no genera calor cuando funciona. no se modificó en el tiempo. Porque sabe brillar de día. Porque es de los pocos oficios no reemplazado por la tecnología. Porque es la. Porque es de estar siempre allí. 72. Porque la gente lo pide.. Porque está aggiornada. Porque su proceso de elaboración. no le hace mal. 81. 86. 74.aux). 70. 88. 82. 87.

Porque en corpóreas con luz interior. 96. Porque es inigualable. no acepta tipografías de bastón fino. 97. Porque luce en corpóreos con frentes de acrílico. 98. Porque su reflejo es constante.94. 338 . Porque quiere nuevos diseños. Porque participa en el diseño Slow. 100. 99. sin sombras en su recorrido. Porque al arquitecto le permite diseñar. 95.

antropológicas y biológicas las que llevaron al hombre a desarrollar los diversos medios de transportes existentes. quiere ir cada vez más lejos. Definición Medio de traslado de personas o bienes desde un lugar hasta otro. pasando por la rueda. el hombre fue creando los medios que le permitieron. El transporte comercial moderno está al servicio del interés público e incluye todos los medios e infraestructuras implicadas en el movimiento de las personas o bienes. Otros pueblos utilizaron canoas o botes como medio de comunicación. por el cual trasladaban distintos tipos de mercaderías. entrega y manipulación de tales bienes. dado que era más eficiente y rápido para puertos naturales y para los lugares en los que se construyeron puertos. Así es como. A veces a través de puentes de cuerdas entre las montañas. transportarse a través del espacio. los aviones y los cohetes espaciales. A pie o a lomo de llamas. tanto de mar como de los caudalosos ríos americanos. Medio creado para el fácil el transporte acuático. Canales. el transporte es y ha sido en Latinoamérica un elemento central para el progreso o el atraso de las distintas civilizaciones y culturas. el hombre se mueve.Medios de Transporte Fueron motivaciones históricas. La apertura de esta vía fluvial se 339 . los barcos a vela. y para satisfacer estas ansias indudablemente debe inventar. anda y desplaza. Historia Ya en el periodo precolombino los incas poseían un rudimentario pero eficiente sistema de caminos interconectados a lo largo y ancho de su Imperio. desde los primeros troncos usados en forma de rodillos. por necesidad o curiosidad. sus mercaderías lograban llegar a su destino. la Tierra. así como los servicios de recepción. Transporte Acuático Historia La llegada de los europeos —españoles y portugueses— a lo largo de casi toda América produjo grandes cambios en los medios de transporte. lo ha incentivado a querer explorar su morada. Pero también la curiosidad característica del ser humano. El transporte comercial de personas clasifica como servicio de pasajeros y el de bienes como servicio de mercancías. Desde el primer momento de su existencia. El principal modo de comunicación era el marítimo. Como en todo el mundo. Diferentes medios de transporte.

hizo posible la navegación en mar abierto sin avistar la costa. Barcos de vapor 340 . permitía que empuñaran enormes remos e izaban las velas cuadradas. Los Vikingos. fue a causa y consecuencia de que las primeras rutas de transporte en las colonias fueran las vías fluviales naturales. Los Vikingos eran altos. Primeros barcos Hace 1200 años antes de Cristo. las dos terceras partes. En Egipto se construyeron balsas con haces de caña. junto con la adopción de la brújula marinera. los ríos Amazonas y Paraná constituyen importantes vías fluviales de navegación. construyeron sobre una estructura de madera sólida que semejaba nuestra columna vertebral. y los modos más eficientes de viaje se realizaran por barco. en otros lugares se ahuecaron los troncos para ser piraguas o canoas. provenían de las costas del Noreste de Europa y se encargaban de asaltar las costas de todo Europa. En América Latina. los ríos o los lagos. La construcción de barcos y el aparejo y manipulación de las velas fueron mejorando con el tiempo. El temprano perfeccionamiento del transporte acuático estuvo estimulado por la tendencia de las poblaciones a concentrarse en las costas o las vías fluviales. esto. Éste une el Atlántico con el Pacífico a través del Istmo panameño. los fenicios fueron los primeros marinos que utilizaron la madera del Cedro para construir grandes y fuertes embarcaciones para aventurarse más allá de sus límites marinos. Al igual que sucedía durante la edad antigua en el Mediterráneo y otras zonas del mundo. El primer navío sin duda fue un tronco flotante el cual conduciría con pies y manos. Los antiguos romanos utilizaban embarcaciones a vela equipadas con varios bancos de remos para transportar a sus ejércitos hasta Cartago y otros teatros de operaciones. pero sin duda el canal más importante es el canal de Panamá. el hecho de que los asentamientos coloniales en América estuviesen establecidos por lo general en las costas. Después pensaron que uniendo varios troncos con ataduras podrían construir una plataforma firme o balsa (como le llamaron) . La Balsa Tomando en cuenta que nuestro planeta está cubierto por agua. el hombre ha buscado la manera de viajar sobre el agua. Con estos cambios. fuertes y robustos.creó para una reducción considerable del tiempo de viaje en el tráfico de mercancías por via marítima a escala mundial.

sea para comer. Moto ski Otro invento importante es la moto ski. que es el resultado de la búsqueda del ser humano de crear aparatos para su diversión. embarcación que va sobre un colchón de aire a unos centímetros del agua o del terreno. en el mismo tiempo un velero podía hacer sólo tres. las cuales ya no debían salarse para su exportación. para luchar o por mera curiosidad. aunque se usaron las velas durante parte de los 29 días de viaje. Hizo su viaje inaugural en 1807 por el río Hudson desde la ciudad de Nueva York hasta Albania. equipada con reactores o con alas parecidas a las de un avión o montantes que. primer barco de vapor eficiente. Durante la década de 1870 llegó a las costas del Río de la Plata el barco francés Le Frigidaire. que realizó la distancia del viaje de ida y vuelta de casi 483 Km. Esto produjo un gran avance en el modo de producción del sector de las carnes. El primer barco en emplear propulsión a vapor en una travesía transatlántica fue el barco estadounidense Savannah en 1819. en 62 horas. Embarcaciones modernas El motor diesel ha supuesto para los barcos modernos un funcionamiento más económico que ha reemplazado en gran medida a los motores de vapor. 341 . La utilización de la energía nuclear en los barcos en la actualidad está restringida a los navíos militares.Durante el siglo XIX se produjeron grandes avances gracias la tecnología producto de la energía a vapor. Otros desarrollos en la navegación moderna son el aerodeslizador. se encuentran equipadas con los adelantos tecnológicos más actuales y pueden navegar en altamar. mientras que un barco de vapor podía hacer seis viajes entre América y Europa. también es utilizada como medio de salvamento a personas con un accidente acuático ya que son rápidas y cada vez un poco más grandes (para estas utilizaciones). levantan el casco del agua para alcanzar velocidades mayores. El Clermont. fue construido por el inventor estadounidense Robert Fulton. Transporte Terrestre Historia El hombre empieza inmediatamente a desplazarse. a una cierta velocidad. que incluía unas cámaras frigoríficas. Otros productos perecederos se vieron beneficiados con la refrigeración. Hacia 1840. por lo que se ve obligadamente a valerse de algún medio de locomoción. nos encontramos con los yates que son pequeñas embarcaciones destinadas al uso de un pequeño grupo de personas. Yates Dentro de los últimos adelantos del hombre en medios de transporte acuáticos.

el principal modo de transporte terrestre era por reata de animales de carga y por caballos sobre los senderos de los nativos americanos. En el siglo XX la formación e instalación de grandes corporaciones de fabricantes ha dado un gran impulso a la producción de vehículos tanto para el uso particular como para el transporte público y de mercancías. en las que las empresas privadas cobraban un peaje por haberlas construido. 342 . que se extendieron hacia el oeste hasta el río Mississippi. bíciclos. Carretera En las trece colonias americanas originales. del estilo de los monociclos. aunque se han inventado numerosos elementos de diferentes formas y de acuerdo con las ideas de sus constructores. año en el que el ingeniero británico George Stephenson adaptó un motor de vapor a una locomotora e inició. carros y trineos tirados por animales. Durante siglos los medios tradicionales de transporte. uno de los más maravillosos de la historia. Muchas de esas carreteras. raramente excedían de un promedio de 16 Km/h. El transporte terrestre se desarrolló más despacio. finalmente lo construyeron de una sola pieza. Posteriormente se produjo el invento de la rueda. conectó todas las ciudades principales superando al resto de carreteras. Con el crecimiento económico de los últimos años se espera que Brasil y Argentina alcancen en poco tiempo cotas de utilización de vehículos al mismo nivel que los países más desarrollados. Se desarrollan en este sitio algunos de los más aceptados y usados por la gente. sin embargo. Ha sido en el siglo XX cuando más se ha desarrollado la red viaria en España. Los mismos aprovecharon muchas veces las rutas construidas por los indígenas. así como la exportación a terceros países. y deben haber sido utilizados por tribus de todo el mundo. en Inglaterra. la mula y el transporte sobre ruedas fueron introducidos por españoles y portugueses. se hacían casi intransitables durante los periodos de mal tiempo. Hacia 1800 se hicieron carreteras de tierra al quitar la maleza y los árboles de estos senderos. al unir los troncos con maderas transversales y atar todo el conjunto con tiras de cuero. triciclos y cuatriciclos. restringidos a montar sobre animales. En 1820. se desarrollaron todo tipo de transportes terrestres. el primer ferrocarril de vapor. A partir de este invento. Sucesivos gobiernos han realizado grandes inversiones hasta conseguir unas vías básicas de gran capacidad (autopistas y autovías) que permiten el desplazamiento de gran número de personas y mercancías por el territorio español con niveles de motorización próximos a los grandes países industrializados. la mejora de las carreteras denominadas turnpikes (autopistas). Para transportar cargas pesadas se usaban troncos a modo de rodillos. el caballo.Los primeros vehículos eran trineos de madera. En América Latina. El transporte terrestre mejoró poco hasta 1820. entre Stockton y Darlington.

Ya en el siglo XVIII existían carreteras que unían las actuales ciudades argentinas de Tucumán y Buenos Aires. ya alimentándose de lo que los animales producían o matándolos para aprovechar así la carne y piel para diferentes usos. A pesar de ello. así como las andinas Lima (Perú) y Paita. El hambre obligo al hombre a moverse para asegurar su comida. Y así también ideo la forma de que solo transportaran cosas. se acordó entre los países del sector construir una carretera Panamericana que uniera todo el continente desde Alaska a Tierra de Fuego. Animales como medio de transporte Debido a que el hombre no tenía la suficiente fuerza para cargar y transportar alimentos o utensilios para ellos mismos se vio en la necesidad de domesticar a los animales. En 1928. Primeras diligencias Con la venida del comercio. 343 . Brasil y México los países con mayor cantidad de kilómetros de carreteras mejoradas y asfaltadas. También en Brasil se construyeron carreteras costeras. Ya en 1940 el 62% del tramo correspondiente a América Central estaba asfaltado y el 87% de América del Sur. se inicio la forma de transportar en algo sus alimentos ya que el hombre en si es débil como animal de transporte. con esto. invento importante que el hombre desarrolló hace 5. después utilizo animales más grandes y fuertes para transportar cosas sumamente pesadas junto con el mismo hombre. en la actualidad muchos países latinoamericanos cuentan con sistemas de carreteras más o menos aceptables. sino que también aprovecharía el hombre como alimento. el ser humano se dio a la necesidad de establecer rutas comerciales y además de crear las primeras diligencias jaladas por caballos para transportarse de un lado a otro a las mismas personas y sus pertenencias o mercancías. El arrastre y la rueda El inicio del transporte se dio cuando nuestros antecesores descendieron de los árboles e inician su vida nómada.500 años y con esto inicio un cambio en el medio de transporte ya que así logro trasladar de un lado a otro sus alimentos más fácil y rápido. siendo Argentina. la ciudad de México con sus vecinas Guadalajara y Jalapa. La rueda. El perro fue el primer animal que domestico el hombre.

Richard Trevithick. El técnico norteamericano Oliver Evans. así como había personas que querían viajar cómodamente y con rapidez. luego. Hacia fines del siglo XVIII se le ocurrió a un ingeniero inglés colocar en las ruedas la protuberancia que antes estaba en las vías. William Murdock. del eje de la vagoneta sobresalía un perno de hierro que entraba en ese espacio y evitaba que las ruedas se deslizasen de los maderos. Habían construido también un tipo de remolque con vías de madera para transportar naves a través del istmo de Corinto. Como otras tantas técnicas de la antigüedad. También los romanos cavaron surcos en muchos de sus caminos. Para obtener a bajo precio fuerzas motrices considerables. Este último tipo de vía era utilizado por los griegos para llevar sus carros adornados a los templos durante las festividades religiosas. esta también se perdió durante la Edad Media. Alrededor de 1630 se le ocurrió a un tal Beaumont unir ambos maderos con durmientes y aumentar también la distancia que los separaba.Ferrocarril Las vías Si hablamos del ferrocarril. construyó años después un coche de vapor que no logró imponerse. y así fue como llegaron las vías al país que luego sería la cuna del ferrocarril. las vías tienen dos mil años más que la locomotora. para modernizar sus minas. Hacia fines del siglo XVI. también las ruedas se fabricaron de este material. por el mismo motivo. En 1769. El hombre descubrió tempranamente que era más fácil tirar de un carro o trineo si preparaba dos surcos de piedras lisas o de tablas de madera paralelos entre sí. lo que resultó mucho más práctico para el deslizamiento del vagón. varios inventores pensaron en la unión del vapor y la rueda. en las cuales las cargas se transportaban en pequeños vagones. Trevithick. en la década del 90 del siglo XVIII se entusiasmó con la idea del vehículo de vapor y preparó en su taller un par de pequeños modelos de locomotoras. hacía experimentos con una máquina de Watt. los alemanes llevaron a Inglaterra el "Tramway". Sin embargo. en Inglaterra. Los primeros frutos de esa asociación fueron verdaderos monstruos. Al desgastarse estas vías de madera por los pesados vagones. su pesado "fardier" (carromato). inmediatamente pensamos en las vías. En el siglo XV o XVI vuelven a aparecer las vías: posiblemente aparecieron por primera vez en las minas alemanas. entre 1801 y 1804 terminó su primer coche grande de vapor: una enorme caja de hierro sobre ruedas 344 . Todos estos ensayos fueron fracasos. La primera locomotora En todas partes había mercaderías que tenían que ser transportadas rápidamente y con seguridad de un lugar a otro. que consistía en una máquina de vapor montada sobre un carro de tres ruedas. Beaumont colocó sobre ellas hierro plano. Las vías de estas minas estaban formadas por dos maderos separados entre sí por pocos centímetros. o los cavaba en un camino rocoso. como lo llamaban en este país. el francés Nicolas Cugnot construyó un coche de vapor. que eran las mejor instaladas en toda Europa. Los griegos habían descubierto que un hombre o un caballo podían arrastrar una carga ocho veces más pesadas si lo hacían sobre una vía en lugar de hacerlo sobre un camino irregular. un joven ingeniero de minas de Cornwall.

El mismo Stephenson guió la máquina. Para conseguirse tal grado de perfección muchas cosas mejoraron: por ejemplo. el acoplamiento del cilindro de alta presión con el cilindro de baja. Londres-Edimburgo y Londres-Bristol. luego el aumento de la temperatura de los 200º C a los 300º C. destinado a rodar por vías con una pendiente superior al 6%. En las grandes líneas hay bar. Robert Stephenson no sólo perfecciona cada vez más las locomotoras de su padre George. se aumentó el volumen de la caldera y el diámetro de las ruedas. los hizo metálicos. en total treinta y tres. En este tramo ferroviario tuvo lugar una competición entre varias locomotoras presentadas por sus propios constructores. buscando también la comodidad. dando paso a variados tipos de trenes. en 1868 George Westinghouse inventa el freno de aire comprimido que reemplaza a los guardafrenos y sus incómodos frenos de mano. A partir de 1830 surgen en Inglaterra múltiples líneas de ferrocarril. tapices. veintiuno más para pasajeros comunes y finalmente cinco vagones carboneros. Para los americanos. Para 345 . y se convirtió así en el primer viaje en ferrocarril. el tren ha conseguido su mayoría de edad: alcanza velocidades del orden de los 100 kilómetros por hora. la primera línea destinada no sólo a las vagonetas de carbón. La gente estaba convencida de que las ruedas patinarían sobre la superficie lisa a medida que se aumente su peso. y recorrió nueve millas y media en cuatro horas y cinco minutos. Posteriormente. Traza la mayor parte de las vías en Inglaterra y en el extranjero. El 27 de septiembre de ese año. pero no tuvo demasiado éxito. etc. un vagón para los invitados especiales. en 1825. tales como: El tren de cremallera: En 1862 el suizo Niklaus Riggenbach inventó el ferrocarril de cremallera. y tras haber reparado muchas locomotoras y haber construido otras. también debió construir puentes. realizó al fin. para realizar sus obras. La Londres-Birmingham se inaugura en 1838. artesonados. empeñados en reconocer todo su inmenso territorio. Después vienen las grandes líneas. George Pullman hace del tren un palacio. y que fue ganada por la Rocket de Stephenson. Finalmente se deciden por las últimas. alrededor de la cual se habían instalado varios asientos para los viajeros. Años después presentó la segunda. Colocó sobre los raíles su máquina de vapor.con una chimenea en el centro. llamado por muchos el "padre del ferrocarril" no compartía esa opinión generalizada. Los señores sesudos dudan entre los caballos y las locomotoras. En 1829 se proyecta una línea Liverpool-Manchester. la siguen las líneas de Londres-Newcastle. Con el tiempo. Primero. fumador. El progreso de Gran Bretaña en este terreno sirve de disparador a otras naciones. Hacia mediados de siglo. La moderna locomotora nace de tres nuevos perfeccionamientos. era vital llegar cada vez más lejos y con mayor rapidez. sino que estudia metódicamente el problema de la infraestructura: desmontes. A partir de 1870. que arrastraba seis vagones con carbón y harina. balasto y colocación de los raíles. sino también a los viajeros. He aquí la primera locomotora. el ferrocarril se ha diversificado. y así es como cada una comienza a proyectar su propio sistema ferroviario. para reducir la pérdida de energía. laLocomotion Nº 1 arrastró un tren cargado con 600 pasajeros a lo largo de los 35 kilómetros que separan Stockton de Darlington. por último. George Stephenson.

Hay dos tipos básicos de monocarriles: el monocarril suspendido. Se trata de un transporte compuesto de vehículos que circulan por una plataforma de rieles o vigas. sobre el nivel del mar. recorrer estos 9500 km transcurren por se tarda más de 8 días. que marcha a una velocidad muy reducida y además. El TGV alcanza en la actualidad los 260 kilómetros por hora. compitiendo prácticamente con el avión. toneladas de peso se Alemania en 1912. donde los vehículos cuelgan bajo la estructura. no tubular. con algunos tramos es la Grand 1988. año en que se realizó el primer tren de turbina de gas. En de los cuales 37 km/h. denominado TGS. El tren de cremallera que sube la pendiente más pronunciada (47%) es el del monte Pilatus. La línea ferroviaria a La estación más El tren de pasajeros más largo del mayor altitud se halla en grande del mundo mundo circulaba en Holanda en Perú. Otros datos interesantes relacionados con el ferrocarril: Las mayores locomotoras de vapor fueron las Big La primera La locomotora Mallard alcanzó en Boy. Son los trenes de finales del siglo XX que recorren largos trechos a muy alta velocidad. Trenes de alta velocidad. máquina de caldera común. El monorraíl. debajo del mar. Estos monstruos de locomotora diesel 1938 la velocidad máxima de una 40 metros de largo y 534 se construyó en máquina de vapor: 202. 346 . Los Japanese National Railways inauguraron su primera línea de gran velocidad Tokio-Osaka (515 km) el 1 de octubre de 1964. en el cual los vehículos apoyan sus ruedas sobre los rebordes interiores de los rieles.6 km. Los más conocidos son el TGV (Train à Grande Vitesse) francés y el tren bala japonés. La Blekinsop de 1812. Tenía 60 vagones.73 km/h. es una locomotora para trenes de mercancías. York. capaces de viajar a más de 400 termina en Najodka. Los estudios de cara a la creación de un tren de alta velocidad (TGV) comenzaron en Francia en 1967. con una a más de 5000 metros Central de Nueva longitud total de 1. en Suiza. La velocidad máxima de estos trenes-bala es de 210 km/h. circula por vías de cremallera. construyeron en los años 40. El primer monorraíl o monocarril se construyó en Irlanda en 1889. El trayecto ferroviario El túnel del Canal En Japón y en Alemania se han más largo del mundo de la Mancha tiene probado trenes experimentales comienza en Moscú y 50 km de longitud.construirlo se inspiró en el sistema del inglés John Blekinsop. y el monocarril sustentado. por lo general elevada sobre la superficie. En 1978 fue entregado el primer tren eléctrico TGV.

la implantación de servicios de alta velocidad en los últimos años ha supuesto una considerable recuperación de viajeros en trayectos muy concretos de la red. La distancia entre estaciones varía entre 1200 y 4500 metros.El subterráneo En el año 1879 nació el tren eléctrico. En 1839. del trolebús. en 1941 se crea la Red de Ferrocarriles Españoles (RENFE). la decisión tomada en 1844 de dotar de un ancho de vía a la red española de ferrocarril distinto al del continente europeo aisló a España del resto del continente por este modo de transporte. El precursor de la técnica de la corriente de alta tensión fue Werner von Siemens. La implantación del ferrocarril en España fue relativamente rápida. La red ferroviaria —financiada por capital francés. Llevaba unas calderas especiales que nunca funcionaban correctamente.4 km. de ferrocarriles de vapor. La primera línea ferroviaria fue inaugurada en 1848 entre las ciudades de Barcelona y Mataró. por lo que las estaciones y los túneles estaban siempre llenos de humo. En parte estuvo estimulado por la carencia de vías fluviales de navegación interior. la mejora de la infraestructura viaria y el incremento de la motorización de las familias y las empresas han supuesto una disminución acusada en el número de viajeros y de mercancías transportadas por el tren. Con este sencillo modelo empezó el desarrollo del tranvía eléctrico. Sin embargo. La construcción del ferrocarril estimulaba en gran parte la colonización y el desarrollo del Oeste. y desde 1850 hasta 1910 el crecimiento del ferrocarril fue espectacular. si bien el verdadero desarrollo se inició el 4 de julio de 1828. Hacia 1830. fue diseñada 347 . El primer ferrocarril subterráneo sin conductor. compañía de carácter estatal para la explotación de una gran parte del trazado ferroviario. tras Inglaterra y Francia. quien para una exposición industrial en Berlín construyó una pequeña locomotora eléctrica que arrastraba tres vagones con seis pasajeros en cada uno. en Londres. pero pronto se comprobó que el sistema era muy peligroso y Siemens introdujo la conducción aérea. La línea que recorría cubría una distancia de 6. con el Ferrocarril entre Baltimore y Ohio. Hacia 1870 ya se contaba con una red que era la tercera de Europa en extensión. poco después de que la línea de ferrocarril de Stephenson empezara a dar servicio en Inglaterra. inglés o estadounidense —. Las estaciones tienen andenes altos para permitir la entrada y salida rápida de los viajeros al mismo nivel. Tenía locomotoras de vapor. No obstante. si bien benefició el transporte de mercancías y pasajeros. El subterráneo es un transporte rápido de tecnología subterránea que utiliza trenes de pasajeros que van por rieles a alta velocidad y funciona en túneles. El primer ferrocarril urbano subterráneo fue inaugurado el 10 de enero de 1863. A partir de 1850 este modo de transporte comenzó su expansión en América Latina. había en Estados Unidos 1. La corriente era conducida por las vías. así como también el de los metros o subterráneos. El primer ferrocarril de Estados Unidos fue establecido en 1827. En las últimas décadas. el trazado se había incrementado hasta 8. en estructuras elevadas o en carriles de uso exclusivo. Después de un siglo de explotación privada del ferrocarril. se inauguró en Londres en 1927.767 Km. utilizado para el transporte de correspondencia.000 Km. a diferencia de otros países del entorno.

pero con las ruedas de bambú. a principios de siglo. el vehículo adquiría una velocidad casi idéntica a la de un coche. año en en que el conde de Sivrac inventa el "celerífero". Este invento. terminado en una cabeza de león. dando paso al transporte por carretera. También en China encontramos una máquina muy similar. la red ferroviaria se extendía a través de la meseta de São Paulo. y con las manos sostenía una vara de madera. Siglos más tarde aparece una auténtica bicicleta entre los dibujos de Leonardo da Vinci. dado que allí se concentraba la producción del preciado café. este celerífero sufrió una gran metamorfosis.generalmente respondiendo a las necesidades comerciales de sus propietarios y países de origen y no atendiendo a las necesidades de los países latinoamericanos. de dragón o de ciervo. De este modo. Fue por 1945 cuando los ferrocarriles comenzaron a ser deficitarios. Ya entre los egipcios encontramos una máquina rudimentaria compuesta por dos ruedas unidas por una barra. y Rosario. La persona se mantenía sentada sobre una pequeña montura. Sus brazos descansaban sobre apoyabrazos de hierro. muchas veces bajo un falso discurso nacionalista. En Argentina. Con este impulso. dado que los mismos ferrocarriles utilizados para el transporte de productos terminaron siendo. empujaba alternadamente con el pie izquierdo y el derecho hacia adelante. casi todo el sistema ferroviario de Latinoamérica fue estatizado. Bicicleta Los antepasados de la bicicleta se remontan muy atrás en la historia. al que llamó "máquina andante". Posteriormente. inventó el vehículo de una sola vía. en el río Paraná. en 1813. colocadas una detrás de otra. Para moverse. consistía en una especie de carrito de dos ruedas. al que también se llama "caballo de ruedas". esa misma rigidez hacía que todas las variaciones del terreno repercutieran en el cuerpo de su montura. Lo mismo ocurrió en la ciudad uruguaya de Montevideo. Drais de Sauerbronn comenzó por introducir unos resortes debajo del sillín y después creó el manillar. y ya no resultándoles beneficiosos a sus dueños. En Brasil. unida a la rueda delantera. en forma parecida al movimiento de un patinador. colocada en el centro de un pequeño marco de madera. las líneas férreas tenían sus terminales en las ciudades portuarias: Buenos Aires y Bahía Blanca. El caso mexicano es paradójico. gracias a que el barón Karl Christian Ludwig Drais von Sauerbronn. tanto de pasajeros como —y sobre todo— de mercancías. la base fundamental del transporte de los revolucionarios de Emiliano Zapata. precursora de la bicicleta y la motocicleta. Esta "máquina andante". No tiene articulación alguna y para las maniobras hay que echar pie a tierra. que giraba en la dirección hacia la cual quería ir el conductor. La verdadera historia de la dos-ruedas comienza en París en 1790. Consiste en un listón de madera. de Alemania. y montado sobre dos ruedas. estaba basado en la idea de que una persona al caminar desperdicia mucha fuerza por tener que desplazar su peso en forma alternada de un pie al 348 . en el litoral.

Otros inventores agregaron los rayos de alambres. El francés Ernest Michaux creó la primera fábrica de bicicletas. se debió al escocés John Boyd Dunlop. entre las ruedas delantera y trasera. bombeó aire en su interior y luego los sujetó en las ruedas posterior. Este modelo. Este tipo de bicicleta fue llamado "bonashaker" (sacudidor de huesos) debido a sus ruedas de madera. denominada "draisiana" en honor a su inventor. los deportistas aumentaron enormemente la circunferencia de la rueda delantera y disminuyeron la de la rueda posterior. el alemán Philipp Heinrich Fischer colocó pedales en la rueda delantera. que movía con los pies. transformando el movimiento abrupto de golpes de los pies en uno giratorio continuo que daba al vehículo un movimiento mucho más sereno. siendo uno de los transportes más populares del mundo. A lo largo del tiempo fueron apareciendo otros diversos modelos de bicicletas como: Humber: La bicicleta Humber para señoras salió al mercado en 1905. Con su evolución se 349 . que posibilita transmitir la fuerza generada por las piernas del ciclista de la rueda dentada del centro (plato) a una más pequeña ubicada en el eje posterior (piñón). Diez años después. los unió n forma de anillo. Bicicleta plegable: Diseñada en 1965 por Alex Moulton. J. el cambio de velocidades y la rueda libre. El desarrollo de una buena llanta. Otra teoría dice que el inventor de los pedales fue Pierre Michaux. Posteriormente. el freno de contrapedal. implicaban para el conductor pruebas casi acrobáticas. la rueda posterior era un poco más pequeña. sin elásticos. las de señoras tenían una estructura abierta acorde con los vestidos largos de la época. En Inglaterra varias fábricas iniciaron a su vez la construcción de bicicletas con propulsión en la rueda delantera. quien las construyó para que su hijo pudiese ganar una carrera a sus compañeros. el asiento con suspensión. el cojinete de bolas. disminuyéndolo y haciéndolo al mismo tiempo más veloz. La innovadora suspensión en sus dos ruedas contribuyó a que fuera fácil de manejar además de cómoda. evolucionó rápidamente. el escocés Kilkpatrick Mac Millan retomó la idea de Drais von Sauerbronn. y el vehículo alcanzaba altas velocidades. Esta máquina. y la "draisiana" se convierte en "velocípedo". esta bicicleta se destaca por lo sencillo que resulta transportarla y guardarla. ayudándose con largas barras. llamado "Penny Farthing". Esta innovación merece un nuevo bautismo. Dunlop sacó entonces dos trozos de goma de jardinero. Agregó una manivela a la izquierda y a la derecha del eje de la rueda trasera. basándose en el modelo de Fischer. y con esto la bicicleta alcanzó su diseño actual. Posteriormente Dunlop patentó su invento. Llevó la manivela y los pedales al centro. Así. El suizo Hans Renold inventó la cadena. El inglés H. Drais von Sauerbronn logró crear este sencillo vehículo que le permitió al hombre evitar ese trabajo. El niño se quejó de los duros golpes que recibía al andar en ese vehículo. y así la bicicleta terminó de conformarse. En vez del cuadro romboidal de las bicicletas para hombres. Lawson solucionó el problema del tamaño. su hijo ganó la carrera. Bicicleta de carreras: Este tipo de bicicletas tiene como principal característica su diseño aerodinámico para el ciclismo de competición. Veinte años más tarde.otro.

La persona que va en la parte delantera es la que pone los cambios. al aparecer en el mercado la máquina de los hermanos Eugène y Michel Werner. Si nos atenemos a la estricta noción del dos ruedas. entró muy pronto en el lenguaje corriente para referirse a todos los biciclos equipados con motor. Este tipo de vehículo se desarrolló a partir de 1919 y tuvo un gran éxito con la Vespa italiana. muy útil para usar en terrenos escabrosos. Las dos personas que se suben a la misma deben pedalear para avanzar. esto significa que la cadencia es la misma para los dos. frena y maniobra. y fue diseñado por 350 . a partir de 1946. denominada velocipedraisidevapor. Motocicleta El 5 de abril de 1818 se presentó en París una draisiana equipada con una caldera de vapor en la parte trasera. con una correa de cuero que lo unía a la rueda delantera. Estos dos periodistas de origen ruso montaron un pequeño motor en una bicicleta.5 caballos y permitía una velocidad de 18 km/h. La transmisión entre la parte delantera y trasera está sincronizada. como los de las montañas. En 1902 apareció en Francia el scooter o ciclomotor con el nombre de Autosillón. los ingleses le atribuyen la paternidad a Edouard Butter. Se trata de una moto munida de un salpicadero de protección. y motor de combustión interna de acuerdo con el ciclo de 4 tiempos. sin suspensión y muy maniobrable. Un tándem es una bicicleta normal y corriente. Por su parte. Recién en 1897 se toma en serio la motocicleta. La posición aerodinámica aumenta al subir el sillín. que construyeron en 1885 una moto de cuadro y ruedas de madera. marca presentada por los hermanos Werner.introdujo el manillar en caída. La primera motocicleta nace de la combinación de la bicicleta de pedales y del automóvil. cosa que suelen hacer los ciclistas profesionales. este honor le corresponde a los alemanes Wilhelm Maybach y Gottlieb Daimler. luego delante del manillar. y se caracteriza por ser más liviana y tener cambios adaptados. Fue inventado por Georges Gauthier y fabricado en 1914. Estos inventos al principio no tienen ninguna aceptación. Al principio lo colocaron en forma horizontal encima de la rueda trasera. que nació en los Estados Unidos en 1972. de pequeñas ruedas y con un cuadro abierto que permite al piloto viajar sentado. denominación que adquirió debido al zumbido que emite su tubo de escape) es el scooter más conocido. Los historiadores se disputan todavía cuál es el padre de esta primera máquina. a la que se une un sillín. en cuya realización intervino tres años más tarde. un manillar y unos pedales. El éxito no se hizo esperar y ya en 1898 se comenzó a fabricar. Mountain bike: La bicicleta de montaña o todo terreno fue desarrollada durante la década de los setenta. con un año de anterioridad. Tándem: La bicicleta tándem es una bicicleta de dos plazas. Lamotocicleta. que reduce la resistencia al aire del cuerpo. había presentado la patente de un triciclo de motor a petróleo. El bicicross se ha convertido en la actualidad en una disciplina deportiva completamente diferenciada. Este motor desarrollaba 0. La Vespa ("avispa" en italiano. quien. Esta máquina no tuvo mayor éxito. Bicicross: Es una pequeña bicicleta con ruedas de 20 pulgadas.

Desde su creación ha aparecido una gama amplísima de estos vehículos baratos. construyó en 1883 una máquina que era impulsada con gas de carbón común: llegó a colocarla sobre ruedas y viajaba en ella. significó un gran adelanto. de cuatro ruedas para caminar por tierra. una vez solucionados los problemas de la generación de corriente y su distribución. muchos otros inventores construyeron diversos vehículos impulsados con vapor. con sus delgadas ruedas y su pequeña chimenea en la parte posterior. Durante la segunda mitad del siglo XIX se manifestó la necesidad cada vez mayor de un vehículo mecánico que pudiese transitar por las calles.2 kilómetros por hora en lugares poblados. Empezó en 1872 con el motor de gas de Nikolaus Otto. El segundo es el triciclo de William Murdock. Animados por estas creaciones. que data del año 1784. pero en su motor -y desde entonces en todos 351 . La historia del automóvil recorre las tres fases de los grandes medios de propulsión: vapor. utilizó por primera vez en 1875 gas de petróleo para mover un pequeño coche por las calles de Viena. parece mucho más delicado que el anterior. Otros inventores. pero también se necesitaba de un motor. ruidoso y temible. Si bien esta máquina dependía del gas de la cañería común. La Lambretta. El nacimiento del automóvil llegó gracias al invento de Dunlop. Era uno de los inventos más adelantados para esa época. investigaron en otra dirección: el motor de gas. Otto utilizó el sistema de émbolocilíndrico de la máquina de vapor. que prohibía a los vehículos sin caballos transitar a más de 6 1/2 kilómetros por hora en los caminos libres y 3. se produjo un progreso permanente. electricidad y gasolina. y por otra. cuyas características principales son las ruedas pequeñas y el cuadro abierto. también de Italia. El scooter tuvo gran popularidad entre los jóvenes. fue la rival más importante de Vespa. En 1884. El primer vehículo a vapor es el "carromato" de Nicolás Gugnot. un inventor vienés. era un enorme barco anfibio que había sido construido para dragar el río Schuykill y estaba provisto por una parte.Corradino d´Ascanio. El tercer vehículo a vapor fue presentado en 1804 por Oliver Evans. Etienne Lenoir. las llantas neumáticas. de una rueda de paletas que le impulsaba por el agua. ligeros y de fácil manejo. El automóvil El intento de obtener una fuerza motriz que sustituyera a los caballos se remonta al siglo XVII. demasiado pesado. gasificador y encendido eléctrico. el inglés Edward Butler equipó en Londres un pequeño triciclo con un motor de nafta de dos cilindros. en cambio. un carrito con una rueda lateral que se incorpora al costado de la moto (aunque ya había aparecido años antes pero en las bicicletas). Siegred Marcus. En Alemania. un ingeniero francés. La invención del coche de vapor fracasó por ser una máquina muy pesada y de difícil conducción. Esta exigencia se cumplió con la aparición del motor eléctrico. pero no tuvo demasiado éxito por la "ley de la bandera roja". entre tanto. En 1910 apareció el sidecar. movido por una máquina de Watt.

se consideraban como un lujo y ahora se puede considerar que hoy en día el tener un auto no es un lujo. con lo que se creó el automóvil. poco a poco fueron surgiendo más inventos con la aplicación del petróleo y buen acero barato que fue el que utilizo en su producción Henry Ford. Una firma francesa constructora de coches adquirió la licencia para la fabricación de automóviles Daimler. Desde 1887 hasta 1889 trabajó en colaboración con su jefe de ingenieros. Estaba convencido de que allí se encontraba la máquina ideal para el tránsito por las calles. podía impulsar un pistón más rápido. Otto. Daimler abandonó finalmente la fábrica de Otto y construyó su primer vehículo alimentado por gasolina: una motocicleta. K. Benz inventó su propio sistema de encendido eléctrico y rodeó al motor de una envoltura por la cual circulaba agua fría como medio refrigerante. Todos los detalles de este coche fueron construidos personalmente por karl Benz. tales como los tanques y autobuses. y se convirtió así. La probó en 1885. en cambio. Starley en 1877. Luego vio el motor de gas de Lenoir. sino un medio de transporte de forma propia. patentado por J. El conocimiento de Benz de una bicicleta del tipo "sacudidor de huesos" lo indujo a pensar en la posibilidad de mecanizar el tránsito en las calles. tenía el aspecto de un carruaje al cual se habían olvidado de atarle los caballos. en 1885 en el primer automóvil. Las guerras desarrollaron nuevas clases de automóviles. y esto dio origen al enorme progreso de esta industria en 352 . El primer vehículo de Karl Benz alimentado con gasolina fue un triciclo con motor de cuatro tiempos. Para superar las dificultades de las curvas -la rueda exterior tenía que moverse más rápidamente que la interior-. El coche que finalmente expusieron en la Exposición Mundial de París de 1889 -un vehículo para cuatro personas con motor refrigerado por agua y con una caja de cuatro velocidades-. Benz adoptó un invento inglés. La fuerza del motor era transmitida a las ruedas posteriores por dos cadenas y un simple embrague intercalado en ellas. como en las máquinas de vapor. En 1882. si no que es una necesidad. basado en el principio de Otto. Gottlieb Daimler ingresó en las fábricas de Otto y contribuyó en gran escala a mejorar el motor de gas. Wilhelm Maybach. y sus ideas se orientaron en la misma dirección que las de Daimler. el diferencial. Después surgieron variedades de autos y hoy en día la industria automotriz es una de las grandes e importantes del mundo. ya no era un carruaje sin caballos.la combustión tenía lugar en el interior y no en una caldera especial. opinaba que su motor sólo servía para una máquina fija. El vehículo se conducía con ayuda de un pequeño volante. Gottlieb Daimler construyó en 1886 su primer vehículo de cuatro ruedas. con el descubrimiento del petróleo. ubicado sobre una delgada barra dispuesta delante de un banquito que servía de asiento al conductor. También él llegó a la conclusión de que uno de los productos derivados del petróleo se adecuaría para la combustión en un motor de gas. Gottlielo Damler descubrió que utilizando petróleo. mientras Karl Benz ya había construido unos meses antes un vehículo impulsado por gasolina.los motores de explosión. tratando de perfeccionar sus modelos. Ese combustible no sería costoso.

ante todo. Henry Ford logró este objetivo y su coche se vendió con éxito. fue el Mercedes. El origen de los transportes urbanos El célebre matemático y pensador francés Blaise Pascal fue quien propuso. Charles E. Él estaba convencido de que América necesitaría. Se trató de su "modelo T". En 1894 tuvo lugar en Francia la primera carrera de automóviles (París-Ruán-París). Èmile Loubat tuvo la idea de encastrar los rieles en la calzada. cantidades ilimitadas de automóviles. un mecánico de ese país. 353 . Transportes urbanos Ya a que en la actualidad hay demasiada población. las autoridades se vieron en la necesidad de crear el transporte urbano para el alto número de habitantes y también por la necesidad en que se ven obligados a recorrer distancias largas. barato y que consumiese poco. no fue explotado en ciudad. de lujo. En 1896 circuló por Detroit el primer coche con motor de gasolina conducido por su constructor.Francia. a intervalos regulares. En 1893. Un modelo perfeccionado. Con su segundo modelo alcanzó una mayor perfección. más que inventor. John Stephenson construyó el primer tranvía urbano. Ford levantó una fábrica propia para la construcción en serie de este coche. Duryea. Ford. Los Estados Unidos tuvieron que esperar varios años antes de fabricar su primer auto. El 19 de enero de 1662 el Consejo del Rey les otorgó a los financieros del proyecto la autorización de establecer la circulación de carrozas públicas en la ciudad de París y alrededores. Henry Ford. Este vehículo destinado al transporte colectivo circulaba sobre rieles de fundición y era tirado por dos caballos. Sobre una cinta transportadora de 300 metros de largo se construían los coches uniendo sus diversas partes. Él conocía los defectos principales de los autos europeos: estaban destinados. que fue ganada por un Daimler con una velocidad promedio de 32 kilómetros. invento con el cual se construyó la línea de la Sexta Avenida de Nueva York en ese mismo año. pero no al hombre común ni a satisfacer su necesidad diaria. Los Estados Unidos de América necesitaban un medio de transporte popular. un sistema de carrozas que circularan en trayectos determinados de París. En 1832. era organizador y perfeccionador. Ya sea un autobús o una combi. nombre de la hija de un socio de la firma francesa que había adquirido la patente a Daimler. También Karl Benz vendió una gran cantidad de automóviles a Francia. en una época en que la mayoría de los coches europeos eran construidos uno por vez por los mecánicos. Tranvía El tranvía fue inventado en 1775 por el inglés John Outram. por un módico precio. entre Manhattan y Harlem. pero no pudo regular su velocidad. sitio que retuvo hasta la Primera Guerra Mundial. con sus enormes distancias y su riqueza rápidamente creciente. consiguió construir un vehículo con motor de gasolina. en Nueva York. a los deportistas y a la gente de dinero. convirtiéndolo en uno de los hombres más ricos del mundo. que la llevó a ocupar el primer lugar entre todos los países europeos. en 1661. En 1852.

podía transportar diez pasajeros. Podía transportar de seis a ocho pasajeros. por lo que decidió darle ese nombre a su línea. En 1703 la policía reglamentó su circulación y les atribuyó a cada uno su número. En la casa de Sauvage se exhibía una imagen de San Simón. Observó que más habitantes de las afueras que bañistas utilizaban el servicio y decidió ampliarlo. El metro Ha sido un medio de transporte efectivo en las grandes ciudades ya que consume energía eléctrica. A Baudry le pareció muy atractivo que omnibussignificara "para todo el mundo". al norte de Renania. se encuentra establecido bajo tierra y costo demantenimiento es bajo y no contamina. el inglés Walter Hancock proveyó a su país del primer autobús de motor. Fue reemplazado por el autobús de motor de gasolina. Este vehículo fue precedido por algunos prototipos de demostración: el de Siemens y Halske en Berlín en 1879. tuvo la idea de poner en servicio unos vehículos derivados de las diligencias. Fue puesto en servicio. en Menlo Park. El coronel puso estos transportes colectivos a disposición de sus clientes entre el centro de Nantes y los baños que él poseía en los suburbios. Provisto de un motor de vapor. entre Stratford y la ciudad de Londres el mismo año de su construcción y se lo bautizó Infant. en tanto que los dos conductores iban afuera. Ómnibus En 1825. donde había un letrero en el que se leía: Omnes omnibus. y el de Edison. de forma experimental. que podían transportar unos quince pasajeros.La primera línea de tranvía eléctrico operativo fue construida en 1888 por el norteamericano Frank Spague. construido por la firma alemana Benz y puesto en servicio el 18 de marzo de 1895 en una línea de 15 kilómetros. La terminal del centro de la ciudad estaba situada delante del negocio de un tal Omnes. en 1880. Orville y Wilbur Wright hicieron el primer vuelo en el aparato más pesado que el aire 354 . El tren bala Podemos observar la evolución del ferrocarril que ha sido perfeccionado y que es más usual en Japón. Aunque los pioneros de la aviación en Estados Unidos. incluido el cobrador. Transporte Aéreo Historia El transporte aéreo es la forma de transporte moderno que más rápidamente se desarrolló. el cochero francés Nicolás Sauvage abrió la primera empresa de taxis en la calle Saint-Martin en París. Debutó con veinte carrozas. Taxi En 1640. Stanislas Baudry. por lo cual en Francia fue común llamar simones a los primeros coches-taxis. un antiguo coronel del ejército imperial francés. Autobús En 1831.

En España también tiene gran importancia el modo de transporte aéreo. Tras la II Guerra Mundial los transportistas aéreos comerciales recibieron incluso un mayor impulso cuando los propulsores de los aviones se hicieron más grandes y eficientes. creo un planeador con línea aerodinámica que se utilizan en la actualidad para los mismos aviones. Aparte de los aviones supersónicos. no fue hasta después de la I Guerra Mundial cuando el transporte aéreo alcanzó un lugar destacado en todos los países. México y Venezuela son los países con mayor número de kilómetros volados en líneas aéreas regulares. Argentina. un gran avance en los viajes aéreos fue la introducción. El primero es básico para las relaciones entre los territorios insulares de Baleares y Canarias con la Península. aunque regularmente sus líneas aéreas realizan vuelos hacia Extremo Oriente. fue el primer país que tuvo líneas aéreas comerciales. del avión a reacción para el transporte comercial.en Kitty Hawk. tanto para vuelos nacionales como para los internacionales. Globos Aerostáticos En 1700 fue cuando se experimento utilizando globos más ligeros que el aire y así se invento el globo aerostático. Brasil. que puede llevar desde 360 hasta más de 500 pasajeros en vuelos regulares. São Paulo y Río de Janeiro) son el principal punto de origen y destino de la región. inspirándose en los pájaros. el año 1903. Fue tanto el auge de los globos elevados 355 . las distancias existentes en la Península entre la capital y las ciudades costeras han hecho rentables los desplazamientos por avión. Primeros Aviones Uno de los sueños más viejos del hombre ha sido el de volar y es así como inicia una búsqueda constante para inventar aparatos que le permitan surcar los aires. en 1919. Buenos Aires. del Boeing 747. el 17 de Diciembre de 1903 que duro solamente 12 segundos. Los nudos internacionales han incrementado cada vez más su importancia debido a la situación estratégica de la Península en el mundo. Un avance importante tuvo lugar en 1958 con la inauguración. al hecho de que sea un gran destino turístico mundial. Las grandes ciudades latinoamericanas (Ciudad de México. El primer vuelo con motor fue realizado por los hermanos Orville y Wilbur Wright. además. por parte de las líneas aéreas británicas y estadounidenses. Próximo Oriente. Colombia. Europa. También Leonardo Da Vinci que fue precursor de la creación de aeronaves. También el transporte aéreo ha tenido un gran crecimiento en los últimos 40 años en Latinoamérica. el llamado reactor Jumbo. Estados Unidos y Canadá. en 1970. Lilienthal. sobre todo en las relaciones entre Latinoamérica y los países europeos. Carolina del Norte. Colombia.

décadas. Rusia mando el primer satélite artificial de la tierra y desde entonces el hombre ha buscado la manera de viajar al espacio. Algunos de ellos (aéreos). Avión de Hélice y Helicóptero Surgen en la primera guerra mundial. facilitar nuestras vidas al llevarnos de un lugar a otro de manera que nosotros realicemos un trabajo mínimo en ese desplazamiento que realicemos. Aeronaves modernas La Industria Aeronáutica. más rápido. curiosidad o diversión. ya sea para llegar más lejos.por Hidrogeno que se creó un globo de pasajeros. grandes naves para pasajeros que dan vuelta al mundo. alcanza su perfeccionamiento en la segunda guerra mundial. Hoy en día ha sido suplantado por el avión propulsado por el motor de propulsión a chorro. de duración. Otros piensan en el desarrollo de trenes intercontinentales subacuáticos. Sean cuales sean los medios de transporte que se usen en los próximos años. En la actualidad se siguen diseñando formas más eficaces de desplazamiento. o para reducir costes. su objetivo esencial será el mismo. aun nos quedan muchos impedimentos por superar. ha logrado alcanzar una relevancia importante debido a que se fabrican aviones más rápidos que la velocidad de la ludel sonido. El Helicóptero. es importante ya que tenía un pasajero que era Yuri Gagarin. quieren ir más allá de la atmosfera para así gastar menos combustible. cuando se elevo desde la plataforma de lanzamiento el Vostoki y tras una hora con 48 minutos regreso después de dar la vuelta al mundo. ya sea por necesidad. naves exploradoras del espacio. A Futuro. En la cuestión espacial. 356 . llevando a varias generaciones a lo largo de un viaje de décadas. pero en la segunda guerra mundial es cuando se lleva a su límite a los aviones propulsados por hélice. por lo que alguno sugieren la creación de colonias enteras. Es el 12 de abril de 1961. pero debido a lo inseguro de este medio de transporte en la actualidad se utiliza como medio de diversión. o siglos. Entre los aviones de pasajeros más importantes están: • Boein 747 o Jumbo Jet • El Concorde (Francés) • Tupolev TU-144 (Ruso) El 4 de Octubre de 1957. o siglos. Así en la actualidad el hombre busca inventar naves que lo transporten más allá de nuestro planeta. ahora sirve como eficaz medio de transporte y servicio en las grandes ciudades debido a que la mayoría de edificios y hoteles cuentan con ellos.

Para 1910 eran 50. Electrificación. No obstante. Electrificación en México La generación de energía eléctrica se inició en México a fines del siglo XIX.0 MW. marginalmente. Chihuahua. el consorcio The American and Foreign Power Company (con tres sistemas interconectados en el norte de México) y la Compañía Eléctrica de Chapala (en el occidente). Las tres compañías eléctricas tenían las concesiones e instalaciones de la mayor parte de las pequeñas plantas que sólo funcionaban en sus regiones.LOS VEINTE INVENTOS MÁS GRANDES DEL SIGLO XX El siglo XX está marcado por los grandes inventos y desarrollos de la tecnología. con el primer gran proyecto hidroeléctrico: la planta Necaxa. La electrificación es un sistema de alimentación de tracción por el cual la energía eléctrica procedente de una línea exterior de alta tensión pasa por la subestación. la cual extendió sus redes de distribución hacia mercados urbanos y comerciales donde la población era de mayor capacidad económica. de los cuales 80% lo generaba The Mexican Light and Power Company. de origen canadiense (en el centro del país). A continuación haremos una reseña de los veinte inventos y descubrimientos que marcaron el siglo XX. propiedad de empresas privadas. Para 1889 operaba la primera planta hidroeléctrica en Batopilas. 357 . algunas compañías internacionales con gran capacidad vinieron a crear filiales: The Mexican Light and Power Company. Al iniciarse el siglo XX.0 MW. hospitales. colocándose las primeras 40 lámparas "de arco" en la Plaza de la Constitución. escuelas. circula por el elemento conductor instalado a lo largo de la línea y llega a los puntos de distribución tales como casas. una revolución industrial mayor a las anteriores que transformó la vida de millones de personas ya que se desarrolló el campo de las comunicaciones. etc. A partir de entonces. televisión e internet. en el régimen de Porfirio Díaz se otorgó al sector eléctrico el carácter de servicio público. Casi inmediatamente se extendió esta forma de generar electricidad dentro de la producción minera y. en Puebla. cien más en la Alameda Central y se comenzó la iluminación de la entonces calle de Reforma y de algunas otras vías capitalinas. México contaba con una capacidad de 31. tales como radio. para la iluminación residencial y pública. y era utilizada por la fábrica textil “La Americana”. Guanajuato. La primera planta generadora que se instaló (1879) en el país estuvo en León. fábricas.

Se excluyen de esta definición los vehículos especiales”. Esto encaminó al Presidente Porfirio Díaz. Cabe destacar que fue un hito en la automovilística antigua. y hasta 40 km/h en las demás. Madero sobre Díaz. regulando también el 358 . Cuatro años después. Un automóvil se define como “vehículo de motor que sirve. normalmente. El automóvil. Poco después otros pioneros. conocida posteriormente como Comisión Nacional de Fuerza Motriz. gastaba muchísimo más combustible de lo que gasta ahora un vehículo a esa misma velocidad y la gasolina se compraba en farmacias. al ir de Mannheim a Pforzheim. él creó un impuesto para los propietarios de vehículos que fue abolido en 1911 con la victoria de Francisco I. En 1910. Automóvil. A principios de la década de los 1960 apareció un Decreto Automotriz cuyas regulaciones dictaban que las empresas establecidas en México debían ensamblar todos los automóviles comercializados en el país.En ese período se comenzó el primer esfuerzo para ordenar la industria eléctrica con la creación de la Comisión Nacional para el Fomento y Control de la Industria de Generación y Fuerza. para el transporte de personas o cosas. como Gottlieb Daimler y Wilhelm Maybach presentaron a su vez sus modelos. Henry Ford comenzó a producir automóviles en una cadena de montaje. Este permitía que los automovilistas alcanzaran una velocidad máxima de 10 km/h en calles estrechas o muy transitadas. considerándose por vez primera a la electricidad como una actividad nacional de utilidad pública. el 14 de agosto de 1937. ya que no se habrían desarrollado otros inventos que incluiremos más adelante. totalizando un parque vehicular de 136 en aquel año. sistema totalmente innovador que le permitió alcanzar cifras de fabricación hasta entonces impensables. los primeros automóviles llegaron a la Ciudad de México. CFE entró en operación formal. o de ambas a la vez. El automóvil en México En 1903. ciudades separadas entre sí por unos 105 km. cuando se decretó integrar la Comisión Federal de Electricidad. Sin embargo. creciendo hasta los 800 tres años después. La electrificación nos ha servido mucho. la capacidad instalada en el país era de 629.0 MW. dado que un automóvil de esta época tenía como velocidad máxima unos 20 km/h. El primer viaje largo en un automóvil lo realizó Bertha Benz en 1888. fue inventado en Stuttgart (Alemania) en 1886 por Karl Benz. o para la tracción de otros vehículos con aquel fin. En ese momento. para crear el primer Reglamento de Tránsito en el país. donde no estaba disponible en grandes cantidades. Y fue hasta el 2 de diciembre de 1933.

entre éstas estaban Mercedes Benz. Otra línea futura será la de los automóviles autónomos. así como con un elevador a diapasón y un timón. la propulsión y la dirección. Actualmente se estudian nuevas formas para movilizarse de manera más rápida y eficiente lo que incluye mejores carreteras por las que moverse. ya que la energía necesaria para hacerlos sostenerse en el aire sería mucho mayor. el cual había despegado del suelo utilizando la energía de un motor. que estaba equipado con un motor a gasolina de 12 caballos de fuerza. En 1904. en el primer caso por el desierto de Mohave y en el segundo por una ciudad. Estableció los principales factores del vuelo: el despegue. El automóvil ha sido de gran utilidad. realizando un círculo completo. así como el porcentaje de las autopartes importadas. Renault. su “Flyer”. Las empresas que no acataron este decreto tuvieron que abandonar el país. 359 . voló distancias de entre 36 y 265 metros. los hermanos Wright fueron los primeros que tuvieron éxito en dirigir un avión y volarlo. impulsadas por los músculos y basadas en el movimiento del aleteo de las aves. Ya ha habido dos concursos. y voló alrededor de 36 metros en 12 segundos. El 17 de diciembre de 1903. Durante esos intentos. no conducían a ningún lado. La antigua visión futura del automóvil volador está desechada en la actualidad. por lo que se dedicó a la construcción de planeadores. Las tres grandes empresas americanas permanecieron en el país junto con American Motors (hoy Chrysler). Leonardo da Vinci se avocó a la tecnología del vuelo y diseñó varios dispositivos voladores. Aeroplano Hace ya 500 años atrás. La idea era el desarrollar una industria automotriz nacional para promover la creación de empleos e impulsar el implemento de avances tecnológicos. Orville y su hermano Wilbur realizaron un total de cuatro intentos de vuelo ese día -permaneciendo finalmente en el aire por un total de 59 segundos. Los primeros pasos hacia el vuelo propulsado y controlado habían sido dados. en los que varios coches autónomos han hecho un recorrido sin conductor. Un futuro posible del automóvil es su sustitución por medios de transporte público más eficientes energéticamente. El inglés Sir George Cayley comprendió que esas máquinas voladoras. Fiat y Volvo. sin conductor. del Departamento de Defensa de Estados Unidos. los cuales tuvo en cuenta durante sus intentos de construir aparatos voladores. Esto puede suceder a causa de la escasez de petróleo y su consecuente aumento de precio. Orville Wright se elevó en el aire con el biplano “Flyer I”. Volkswagen y Datsun. ya que con sus avances se van acortando cada vez más las distancias entre ciudades y se facilita más el transporte de carga que sólo era férreo.porcentaje de integración nacional.

autobús. o en su caso.C. calentándola al sol o sumergiendo una pieza de hierro caliente dentro de la misma. El hecho tuvo lugar en los llanos de Balbuena. el agua que puede ser consumida sin restricción. propiedad de su familia. en la linea de ferrocarril que unía la Ciudad de México con el puerto de Veracruz. si no en toda Latinoamérica. De regreso en México. Agua potable en México 360 . una vez este llegó a Veracruz y fue trasladado en tren. Braniff buscó un lugar para sus prácticas de vuelo y encontró que la hacienda de Balbuena. El aeroplano es un gran medio de transporte tanto de carga como de personas. en el mes de septiembre. tomó un curso de vuelo en la escuela que los propios fabricantes tenían en Yssy-Les-Moulineaux. tales como el ferrocarril o el barco. próximos a la capital federal. Mientras tanto. Braniff se fue a París y compró a los hermanos Voisin uno de sus aeroplanos con el encargo de que se lo enviaran a México. armaron el avión. Los mismos indican que las formas más comunes de purificación del agua eran hirviéndola sobre el fuego. Allí mandó construir un hangar donde se armaría el aeroplano. Los egipcios fueron los primeros en utilizar métodos para el tratamiento del agua. Otro de los métodos más comunes era el filtrado del agua hervida a través de arena o grava para luego dejarla enfriar. Entre Braniff.La aviación en México El 8 de enero de 1910 el deportista mexicano Alberto Braniff efectuó en un aeroplano Voisin el primer vuelo de un aeroplano no sólo en México. un carpintero y el chofer de Braniff. Estos registros datan de hace más de 1. Potabilización del agua Se denomina agua potable o agua para consumo humano también responsable de toda la vida en el mundo sin ella no existiría nada. el mecánico llegado de la fábrica apellidado Ploquin. El avión actual está diseñado para recorrer grandes distancias a muy corto tiempo comparado con transportes anteriores.500 años hasta el 400 A. El término se aplica al agua que cumple con las normas de calidad promulgadas por las autoridades locales e internacionales. tenía unos llanos muy adecuados para la práctica del vuelo y se encontraba a unos 2 km de la estación de San Lázaro. sólo que no se tiene la misma accesibilidad para viajar en aeroplano que en automóvil.

se cuenta con una cobertura razonable de los servicios de agua potable y saneamiento. En la actualidad.Las condiciones bajo las cuales se han provisto los servicios de agua potable y saneamiento en México han sido una mímica de las tensiones políticas entre las autoridades municipales y federales. limpiar. La mayor división es la que distingue la electrónica analógica de la electrónica digital. La electrónica es. Con el transistor se permitió aún una mayor miniaturización de aparatos tales como las radios. Entonces se puede decir que la electrónica abarca en 361 . Electrónica La electrónica es la rama de la física y especialización de la ingeniería. La electrónica desarrolla en la actualidad una gran variedad de tareas. decidió regresarla a los municipios. que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente. El transistor no funciona en vacío como las válvulas. Los principales usos de los circuitos electrónicos son el control. una solución viable es la aplicación de subsidios cruzados en cada localidad: los fondos requeridos para que los ciudadanos de escasos recursos paguen las tarifas justas pueden provenir de los estratos pudientes de la sociedad. aunque la desigualdad social se observa incluso dentro de una misma localidad. por lo tanto se debe crear conciencia para cuidarla y en un futuro no muy lejano no falte. consumo humano. por tanto. los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias disciplinas especializadas. A pesar de esos vaivenes. Estos dos usos implican la creación o la detección de campos electromagnéticos y corrientes eléctricas. una de las ramas de la ingeniería con mayor proyección en el futuro. El agua potable es un recurso indispensable para la vida. El transistor de unión apareció algo más tarde. que alojaba seis transistores en un único chip. etc. En ese aspecto. Este es el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la electrónica. la distribución de información. En 1958 se desarrolló el primer circuito integrado. Intel 4004. el procesado. una vez teniendo la responsabilidad. razón por la que no necesita centenares de voltios de tensión para funcionar. etc. mayor rendimiento energético. lavar. ya que con ella hacemos todo. En 1970 se desarrolló el primer microprocesador. la conversión y la distribución de la energía eléctrica. Cuando los servicios eran una responsabilidad rentable. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y fragilidad. en 1949. menores tensiones de alimentación. la federación ansiaba esa recaudación. también por cuestiones presupuestarias. sino en un estado sólido semiconductor (silicio).

que es el altavoz (o parlante). donde se transforma la información eléctrica en sonido. El 17 de Septiembre de 1902. Radio / TV El radio y la televisión fueron los mejores agentes sociales del siglo XX. que se genera en la antena. abriendo ventanas en áreas remotas del mundo. Durante los siguientes cuatro años la dirección General de Telégrafos Nacionales instalaría transmisores en diversas partes del país. La noche del 27 de Septiembre de 1921 fue una fecha significativa para los inicios de la radio en México. por efecto de las ondas electromagnéticas que llegan por el aire normalmente (aunque viajan por cualquier medio. Porfirio Díaz. Existen en el México más de 1332 emisoras de radio. para enviarla hacia un elemento con un electroimán. miles de veces. ha contribuido para los grandes desarrollos de tecnologías. transmitidas por un emisor de radio mediante ondas electromagnéticas. Del telégrafo inalámbrico a los sistemas de satélite. número que iba a seguir creciendo en los próximos años. 853 en Amplitud Modulada (AM) y 479 en Frecuencia Modulada (FM). Pues fue cuando la cabina construida en la planta baja del 362 . al igual que la electricidad. La radio es un medio de difusión masivo que llega al radio-escucha de forma personal. anunció en el Congreso las primeras pruebas de telegrafía sin hilos en Veracruz.general las siguientes áreas de aplicación: telecomunicaciones y electrónica de potencia. entonces presidente de México. diseñado de tal forma que permite filtrar o separar una corriente pequeñísima. Para 1911. electrónica de control. En México todas las estaciones comerciales de radio requieren una concesión por parte de la Secretaría de Comunicaciones y Transportes. inclusive el vacío) y luego amplificarla selectivamente. Un receptor de radio consiste en un circuito eléctrico. los ingenieros han desarrollado tecnologías importantes que informan y entretienen a millones de personas. ya que llega a todas las clases sociales por lo que establece un contacto más personal ya que ofrece al radio-escucha cierto grado de participación en el acontecimiento o noticia que se está transmitiendo. la Red de Radio Nacional contaba con nueve estaciones que aseguraban la comunicación con otras naciones del Continente. es por eso que no nos extendimos tanto en este tema debido a que tiene mucha relación con la mayoría de los inventos. El receptor de radio es el dispositivo electrónico que permite la recuperación de las señales vocales o de cualquier otro tipo. es el medio de mayor alcance. La electrónica.

En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas. un Sistema Tricromático Secuencial de Campos. El receptor de las señales es el televisor. se inaugura oficialmente la primera estación experimental de televisión en Latinoamérica. así como de Francisco Barra Villela. que el 7 de septiembre de ese año.UU. Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. La estación era propiedad de los hermanos Pedro y Adolfo Gómez. Durante varios años. En 1910. se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo.desaparecido Teatro ideal en la Ciudad de México. Las primeras emisiones públicas de televisión las efectuó la BBC en Inglaterra en 1927 y la CBS y NBC en Estados Unidos en 1930. La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia. que estaban unidos al mismo eje para que su giro fuera síncrono y separados 2 m. Los primeros pasos de la televisión en México. el mexicano Guillermo González Camarena patenta. En 1940. Un joven de 17 años. gracias a su Sistema Tricromático Secuencial de Campos. Esta transmisión puede ser efectuada mediante ondas de radio o por redes especializadas de televisión por cable. estudiante del Instituto Politécnico Nacional. se remontan al año 1934. González Camarena impacta al mundo al inventar la televisión en color. XE1GC. hasta que. En ambos casos se utilizaron sistemas mecánicos y los programas no se emitían con un horario regular. dio origen al primer programa radiofónico. a las 20:30 h. uno en el emisor y otro en el receptor. lugar de residencia del ingeniero Guillermo González Camarena. en México y EE. en 1960. Unos años más tarde. desde el cuarto de baño de la casa número 74 de las calles de Havre en la capital del país. Fue tal el éxito. un programa artístico y de entrevistas. durante dos años. realiza experimentos con un sistema de televisión de circuito cerrado. en 1939. el ingeniero Guillermo González Camarena trabaja con el equipo que él mismo ha construido. 363 . en su etapa experimental. se lleva a cabo el 19 de agosto de 1946. el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX y en 1925 el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos. en un pequeño laboratorio montado en las instalaciones de la estación de radio XEFO. La primera transmisión en blanco y negro en México. Esta emisora transmitió los sábados. cuando la televisión en blanco y negro ya funciona en algunos países..

Con la llegada de la Revolución industrial y del desarrollo de máquinas más complejas. La gasolina. las máquinas trilladoras separaban las semillas de las cabezas y de los tallos. y en vez de trillar el grano batiéndolo con rastrillos. y los motores diesel posteriores se convirtieron en la principal fuente de energía para la siguiente generación de tractores. a través de la señal de XHTV-TV Canal 4 de la familia O'Farrill. estas cosechadoras combinan el corte. Las máquinas agrícolas más comunes son: Tractor: es una máquina agrícola muy útil. y posteriormente la cosechadora combinada. y separado del grano mientras se mueven continuamente a través del campo de cultivo. Una máquina agrícola es aquella que tiene autonomía de funcionamiento y.El primer canal comercial de televisión en México y América Latina se inaugura el 31 de agosto de 1950. con la lectura del IVº Informe de Gobierno del Presidente de México. se transmite el primer programa. En vez de cosechar el grano a mano con una hoja afilada. También en 1962. las máquinas con ruedas hacían una siega continua. La televisión y la radio han sido fundamentales para la comunicación masiva y el entretenimiento de la humanidad. los métodos de cultivo dieron un gran paso adelante. Comprende todo un conjunto de acciones humanas que transforma el medio ambiente natural. está dotada de un motor de combustión y unos mecanismos de transmisión que la permiten desplazarse por el campo cuando desarrolla el trabajo. trillado. con el fin de hacerlo más apto para el crecimiento de las siembras. Canal 5 transmitió el primer programa en color en la historia de la televisión de México: Paraíso infantil. Como dato curioso agregamos que México es el tercer país en consumo televisivo. Tiene dos pedales de freno y está 364 . Estos motores también contribuyeron al desarrollo de la máquina segadora autopropulsada y de la trilladora. En ella se engloban los diferentes trabajos de tratamiento del suelo y cultivo de vegetales. Se agrupa bajo el concepto general de maquinaria agrícola a toda la serie de máquinas y equipos que utilizan los agricultores en sus labores agrícolas. En vez de cortar las espigas del grano y transportarlas a una máquina trilladora inmóvil. sólo detrás de potencias económicas como China y los Estados Unidos de Norteamérica. Miguel Alemán Valdés. ya que en estos medios se transmiten noticias en tiempo real lo cual no era posible con los medios impresos como revistas o periódicos. Lic. un día después. por tanto. el 1 de septiembre. con ruedas o cadenas diseñadas para moverse con facilidad en el terreno y potencia de tracción que permite realizar grandes tareas agrícolas. Mecanización de la agricultura La agricultura es el conjunto de técnicas y conocimientos para cultivar la tierra. aun en terrenos encharcados.

Computadora Máquina capaz de efectuar una secuencia de operaciones mediante un programa. puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. La maquinaria del campo incrementó dramáticamente la eficiencia del campo y su productividad en el siglo XX. En esta generación las computadoras se reducen de tamaño y son de menor costo. las computadoras seguían evolucionando. obteniéndose otro conjunto de datos de salida. se reducía su tamaño y crecía su capacidad de procesamiento. capaz de desplazarse hasta por carreteras. Estas máquinas tenían las siguientes características: estas máquinas estaban construidas por medio de tubos de vacío y eran programadas en lenguaje de máquina aparte eran grandes y costosas. Hay dos tipos de tractores: el de oruga. que recibía el nombre de programación de sistemas. un solo granjero puede alimentar a más de cien personas. de tal manera.acondicionando para halar rastras. que se realice un procesamiento sobre un conjunto de datos de entrada. Tercera generación 365 . También en esta época se empezó a definir la forma de comunicarse con las computadoras. peine cortador para segar las plantas maduras de cereales y un largo rastrillo que va delante de la máquina y gira sobre un eje horizontal. La historia de la computadora se divide en seis generaciones que son: Primera Generación En esta generación había una gran desconocimiento de las capacidades de las computadoras. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. posee mayor velocidad que el de oruga. Al final del siglo. Segunda Generación Cerca de la década de 1960. con las innovaciones de ingeniería en la maquinaria. Las características de la segunda generación son las siguientes: • Están construidas con circuitos de transistores. Esta generación abarco la década de los cincuenta. al comienzo del siglo XX. Cosechadora: o segadora es una máquina agrícola de motor potente. y el de ruedas. cuatro granjeros podían alimentar a diez personas. • Se programan en nuevos lenguajes llamados lenguajes de alto nivel. Y se conoce como la primera generación. de gran estabilidad y fuerza. En EU.

• Actualmente nos encontramos en la sexta generación. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes. La ingeniería ha impulsado ésta revolución y continúa mejorando las computadoras haciéndolas más rápidas y capaces. son circuitos integrados de alta densidad y con una velocidad impresionante. que pueden resumirse de la siguiente manera: Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo. antecedida tan solo por IBM. con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. y esta por su parte es aún de las cinco compañías más grandes del mundo. • Su manejo es por medio de los lenguajes de control de los sistemas operativos. Las características de esta generación fueron las siguientes: • Su fabricación electrónica esta basada en circuitos integrados. Las computadoras han liberado al ser humano de varias rutinas de trabajo diario y ha traído nuevas formas de manejar otras más complejas. Quinta generación Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras". Cuarta generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica. por lo que su uso se extiende al mercado industrial. • Manejo de lenguaje natural y sistemas de inteligencia artificial.La tercera generación surge con la IBM 360 en abril de 1964. Teléfono 366 . Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas. La computadora ha transformado los negocios alrededor del mundo incrementando la productividad y abriendo acceso a gran cantidad de conocimiento.

que lo llamó teletrófono. iniciando la carrera por instalar cableado a lo largo de la republica mexicana y por tal. S. el nacimiento de compañías telefónicas. Con las ventajas ofrecidas el teléfono dejo de ser uso exclusivo de la policía y el ejército. junto con Elisha Gray. 367 . El intento de mantener una empresa por mexicanos y para los mexicanos tuvo su inicio en el verano de 1958. la compañía seleccionada para la construcción de una red telefónica que uniera a las comisarías de policía. además. y no Alexander Graham Bell. limpia y circula el aire. La historia del teléfono en México se remonta a la fecha 15 de diciembre del año 1878. En 1871 Meucci sólo pudo. la inspección general.El teléfono es un dispositivo de telecomunicación diseñado para transmitir señales acústicas por medio de señales eléctricas a distancia. a través de una reunión para acordar el precio de intercambio de la compañía. Las conexiones casi instantáneas permiten la comunicación auditiva que mejora nuestras vidas y los procesos industriales y comerciales. Sin embargo Bell no fue el inventor de este aparato. controlando. El teléfono es la piedra angular de la vida moderna. sino solamente el primero en patentarlo. (Telmex). el 23 de diciembre de 1947 se constituyó Teléfonos de México. El 11 de junio de 2002 el Congreso de Estados Unidos aprobó la resolución 269. pero no formalizar la patente ante la Oficina de Patentes de Estados Unidos. la oficina del gobernador de la ciudad y el ministerio de gobernación fue Alfred Westrup & Co. así en agosto del mismo año. y paso a dar concesiones para instalar cableado público. en México se vivía un proceso de industrialización acelerado. Esto ocurrió en 1876. por dificultades económicas. bajo ese marco. como es el caso de la Compañía Telefónica Mexicana (Mextelco) formada el 18 de julio de 1882. por la que se reconocía que el inventor del teléfono había sido Antonio Meucci. y de tableros de switcheo a satélites Aire acondicionado El acondicionamiento del aire es el proceso que enfría. A. la ingeniería ha mejorado la comunicación telefónica cambiando de alambre de cobre a fibra óptica. A finales de la década de los cuarenta. con lo cual Ericcson dejaba de operar en México después de 50 años. Con innovaciones importantes. al establecerse oficialmente el servicio telefónico en México. Durante mucho tiempo Alexander Graham Bell fue considerado el inventor del teléfono. presentar una breve descripción de su invento. En condiciones ideales logra todo esto de manera simultánea. su contenido de humedad. Iniciando operaciones el 1 de enero de 1948. Muy parecido al teletrófono.

También conocida como enfriadora centrífuga o refrigerante centrifugado. Estas personas gozan de mejor vida al tener un clima más agradable que permite desarrollar las actividades de la vida cotidiana.Como enfriar significa eliminar calor. Carreteras Una carretera es una vía de dominio y uso público. Willis Haviland Carrier patentó la Máquina de Refrigeración Centrífuga. En 1928. En algunos países del sur de Sudamérica. Willis Haviland Carrier desarrolló el primer equipo que enfriaba. 368 . Las carreteras se distinguen de un simple camino porque están especialmente concebidas para la circulación de vehículos de transporte. Docenas de innovaciones de ingeniería hicieron posible el transporte y almacenamiento de comida fresca a personas que viven especialmente en lugares con climas calurosos. El acondicionador de aire o clima toma aire del interior de una recamara pasando por tubos que están a baja temperatura estos están enfriados por medio de un liquido que a su vez se enfría por medio del condensador. aunque coloquialmente se usa el término carretera para definir a la carretera convencional que puede estar conectada. las autovías y autopistas. En 1921. Carrier diseñó un compresor centrífugo similar a las paletas giratorias de una bomba de agua. como Paraguay. El resultado fue un enfriador más seguro y eficiente. A partir de entonces. el termómetro esta en el panel frontal para que cuando pase el aire calcule al temperatura a la que está el ambiente dentro de la recamara. pero la Gran Depresión en los Estados Unidos puso punto final al aire acondicionado en los hogares. Argentina y Uruguay. a través de accesos. otro término utilizado para decir refrigeración. El aire acondicionado y la refrigeración cambiaron tremendamente la vida del siglo XX. diferenciándolas de otro tipo de carreteras. parte del aire se devuelve a una temperatura menor y parte sale expulsada por el panel trasero del aparato. y así regulando que tan frío y que tanto debe trabajar el compresor y el condensador. Existen diversos tipos de carreteras. proyectada y construida fundamentalmente para la circulación de vehículos automóviles. el aire acondicionado. obviamente este tema incluye a la refrigeración. el confort del aire acondicionado se extendió a todo el mundo. tóxico e inflamable. limpiaba y hacía circular el aire para casas y departamentos. se las conoce como rutas. calentaba. que no pueden tener pasos y cruces al mismo nivel. a menudo amoníaco. Las ventas de aparatos para uso residencial no empezaron hasta después de la Segunda Guerra Mundial. a las propiedades colindantes. Las máquinas anteriores usaban compresores impulsados por pistones para bombear a través del sistema el refrigerante. fue el primer método para acondicionar el aire en grandes espacios.

Miles de ingenieros construyen carreteras. la construcción de terraplenes. muy deteriorado en aquellos días. La URSS comenzó su programa espacial con una gran ventaja sobre los EE. los misiles lanzadores intercontinentales de la URSS eran inmensos y potentes comparados con sus similares estadounidenses. Así. Mientras en nuestro país se desarrollaba la lucha revolucionaria. puentes y túneles. seguido por el extendido del pavimento. en Norteamérica y Europa la industria automotriz y las redes camineras crecían con rapidez. trayendo consigo la revolución de los viejos conceptos del transporte.La construcción de carreteras requiere la creación de una superficie continua. El transporte de personas y mercancías de una ciudad a otra. El automóvil había hecho su aparición en México en 1906. los caminos de México empezaron a volverse obsoletos. Exploración espacial La exploración espacial designa los esfuerzos del hombre en estudiar el espacio y sus astros desde el punto de vista científico y de su explotación económica. los cohetes para su programa espacial ya estaban listos como resultado del esfuerzo militar soviético resultante de la guerra fría. Existe una variedad de equipo de movimiento de tierras que es específico de la construcción de vías. en nuestro país no significó ninguna mejora para los caminos existentes. puentes y túneles que conectan a las poblaciones. sin embargo. tenía que hacerse utilizando el ferrocarril. En otros países los caminos se fueron modificando de manera gradual y las normatividades para la circulación de carruajes. 369 . El proceso comienza a veces con la retirada de vegetación (desbroce) y de tierra y roca por excavación o voladura. permitiendo el abasto de enseres y servicios. Estos esfuerzos pueden involucrar tanto seres humanos viajando en naves espaciales como satélites con recursos de telemetría o sondas teleguiadas enviadas a otros planetas (orbitando o aterrizando en la superficie de estos cuerpos celestes). Esto ocurrió porque. a partir de entonces. se transformaron en reglamentaciones para el tránsito de automóviles. En el México de 1925. Las carreteras ayudan a disfrutar uno de los más preciados valores: la libertad de movilidad personal. de casi 84 kg) y el primer hombre. que atraviese obstáculos geográficos y tome una pendiente suficiente para permitir a los vehículos o a los peatones circular y cuando la ley lo establezca deben cumplir una serie de normativas y leyes o guías oficiales que no son de obligado cumplimiento. los automovilistas se limitaban a transitar por las calles y calzadas urbanas. Como consecuencia. como estaban continuaron prestando servicio a los vehículos de motor y a los de tracción animal. UU. Yuri Gagarin. debido a problemas técnicos para fabricar arcos nucleares más débiles. los soviéticos fueron capaces de enviar el primer satélite artificial en órbita (el Sputnik. Al paso de unos cuantos años el automóvil empezó a evolucionar sobre todo en cuanto a velocidad.

cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada. Sus orígenes se remontan a 1969.El lanzamiento del Sputnik fue parte de un esfuerzo de preparación de la URSS para enviar misiones tripuladas al espacio. Sin 370 . garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única. Esto acarreó que la capacidad de lanzamiento estadounidense era de 5 kg en el momento en que la Sputnik I. en 1969. UU. se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Estados Unidos. Sputnik 5. mediciones meteorológicas y comunicaciones vía satélite. Este proyecto envolvió un extraordinario esfuerzo económico de 20 billones de dólares. Su programa espacial incluía planos para llevar hombres a Luna (este programa se llamaba Lunar L1). y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver Arpanet). En julio de 1958 se crea la agencia espacial de los EE. pero cuya existencia era desconocida hasta hace poco en Occidente. responsable de coordinar todo el esfuerzo estadounidense de exploración espacial y administrar el programa espacial de los EE. Consistió en ocho vuelos no tripulados: Sputnik 1. Desde la prueba de lanzamiento de cohetes hasta el lanzamiento de naves espaciales. La primera red interconectada nace el 21 de noviembre de 1969. Los EE. de 84 kg pero con capacidad de 500 kg. conocida como ARPANET. Korabl-Sputnik-4 y KorablSputnik-5. entre tres universidades en California y una en Utah.UU.UU. cuando se estableció la primera conexión de computadoras. llamado LK lander. Sputnik 3. Los dos últimos usando naves Vostok y ya con patrón compatible al envío de humanos al espacio. de alcance mundial. fue recién lanzada por la URSS. se puede atribuir a un error estratégico de invertir inicialmente en los lanzadores Vanguard. más complejos y menos confiables que los lanzadores Redstone (basados en las antiguas V-2 alemanas). UU. la NASA. la exploración del espacio es quizás una de las más sorprendentes obras de ingeniería del siglo XX. Korabl-Sputnik-3. con el Proyecto Apollo. la primera red. incluyendo dispositivos médicos. La prueba de esto es la existencia de un módulo lunar soviético. El mito de que ARPANET. Mucho del atraso inicial del programa espacial de los EE. y 300 mil trabajadores. lograron en su objetivo de alcanzar la Luna antes que la URSS. Internet Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP. Miles de productos y servicios han sido resultado de los programas espaciales.. 20 mil compañías que desarrollaron/fabricaron componentes y piezas. Sputnik 4. Sputnik 2.

embargo. UUNET. Hoy en día. El primer ISP de marcaje telefónico. Compañías como PSINet. generalmente. pero sin duda alguna hoy es más probable perderse en la red. Esto mediante una conexión vía satélite de 56 Kbps. en el Campus Monterrey. La historia del Internet en México empieza en el año de 1989 con la conexión del Instituto Tecnológico y de Estudios Superiores de Monterrey. Inicialmente Internet tenía un objetivo claro. En Diciembre de 1995 se hace el anuncio oficial del Centro de Información de Redes de México el cual se encarga de la coordinación y administración de los recursos de Internet asignados a México. o en inglés e-mail. world.std. con el Centro Nacional de Investigación Atmosférica de Boulder. Colorado. de pensamientos distintos de tantas y tantas posibilidades que. este no fue el único motivo. ITESM hacia la Universidad de Texas en San Antonio. en el Instituto de Astronomía en la Ciudad de México. Una Línea privada analógica de 4 hilos a 9600 bits por segundo fue el enlace. una explosión o cúmulo de ideas distintas. tales como la administración y delegación de los nombres de dominio ubicados bajo . Netcom. la sensación que produce Internet es un ruido. Por medio de mensajes de correo electrónico se puede enviar. de personas diferentes. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red.MX. 371 . en ocasiones. una serie de interferencias. El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros.com. puede resultar excesivo. debido al inmenso abanico de posibilidades que brinda la red. Correo electrónico. específicamente a la escuela de Medicina. es un servicio de red que permite a los usuarios enviar y recibir mensajes rápidamente (también denominados mensajes electrónicos o cartas electrónicas) mediante sistemas de comunicación electrónicos. en los Estados Unidos de Norteamérica. Su eficiencia. El segundo nodo Internet en México fue la Universidad Nacional Autónoma de México. Durante los finales de los años ochenta se formaron las primeras compañías Internet Service Provider (ISP). Se navegaba en Internet para algo muy concreto: búsquedas de información. e-mail basado en UUCP y Noticias Usenet al público. se inauguró en 1989. están logrando que el correo electrónico desplace al correo ordinario para muchos usos habituales. se trataba de una línea digital. sino todo tipo de documentos digitales. y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red. no solamente texto. Ahora quizás también. Por lo tanto. la verdadera razón para ello era que los nodos de conmutación eran poco fiables. conveniencia y bajo costo.

Otra tecnología seria la del ecocardiograma que haría posible el ver movimientos cardíacos y el flujo cardíaco. Con el acceso global a las noticias. para lo cual se puede utilizar tanto análisis visual como digital. hacían uso de transmisores direccionales para atraerlos a su espacio aéreo con la intención de derribarlos. era posible navegar estas áreas peligrosas. radar de alta definición. Tecnologías de imágenes. Se llama análisis de imágenes a la extracción de información derivada de sensores y representada gráficamente en formato de dos o tres dimensiones. El lado positivo de desarrollar nuevas tecnologías y imágenes es que resulta en nuevas observaciones que aumentan la eficacia del crecimiento en la investigación médica que a su vez produce mejores diagnósticos y tratamientos. resonancia magnética. 372 . Abarca la fotografía en blanco y negro y color. hay fotos publicadas por la Fuerza Aérea de los Estados Unidos donde se muestra esta práctica. los soviéticos. sismogramas y otros. Otro adelanto seria la introducción de la resonancia magnética cuyas imágenes revelarían anomalías en tejidos humanos y flujo sanguíneos. También se podría ver evidencia de daños en la espina dorsal y aun procesos neuroquímicos cerebrales. la educación y las comunicaciones. electroencefalogramas. la tecnología de imágenes se ha expandido para alcanzar nuestra visión. Desde los pequeños átomos a las galaxias distantes. el mapeo del fondo de los océanos. En el presente los científicos están explorando el uso de nuevas tecnologías que hagan uso de más sectores del espectro electromagnético como las imágenes de rayos X. El ultrasonido que sondea el cuerpo humano. negocios y gran cantidad de información. Las avances han fomentado una mejor comprensión del cuerpo humano. En los primeros años de la guerra fría. ultrasonido.El internet está cambiando las prácticas del comercio. Los primeros en usar de esta nueva tecnología serían de la inteligencia americana y los investigadores científicos quienes refinarían esta tecnología. Haciendo uso de la pantalla. el evitar la impericia médica exige un régimen costoso de parte del paciente y su seguro medico. Esta tendencia no cambiara. al detectar aviones de vigilancia. y los pronósticos del tiempo son algunos ejemplos de los avances de la tecnología de imágenes. el diagnostico y el tratamiento. La aplicación más importante ha sido la de la investigación médica. El único problema es que al aumentar la capacidad diagnostica. resultando en la tomografía computarizada. infrarroja. En la Segunda Guerra Mundial se introdujo el radar con su capacidad para detectar aviones enemigos. de radar. imágenes satelitales. Las pantallas circulares ya se usaban en los aviones de mayor tamaño. electrocardiogramas. el internet ha conectado más a las personas añadiendo convivencia y eficiencia en nuestras vidas. De hecho.

Así. conservar los alimentos. La línea marrón hace referencia al conjunto de electrodomésticos de vídeo y audio. como pueden ser cocinar. Esta categoría incluye: • • • • • • Televisor / Televisión Reproductor de audio Reproductor de vídeo Cadena de música Reproductor de DVD Home cinema 373 .Aparatos electrodomésticos. La aparición de las pantallas de televisión de plasma promete una revolución similar en los próximos años. comercios o industria. los mayores crecimientos en ventas de los últimos años se han producido en reproductores de DVD y 'Home cinema'. Un electrodoméstico es una máquina que realiza algunas tareas domésticas rutinarias. Este tipo de electrodoméstico se distribuye en un 44% del total del mercado en comercios afiliados. Existen dos tipos de líneas de electrodomésticos: la línea blanca y la línea marrón. tanto para un hogar como para instituciones. o limpiar.

su tamaño y peso son más reducidos. Los motores eléctricos de tracción usados en locomotoras realizan a menudo ambas tareas. pueden transformar energía mecánica en energía eléctrica funcionando como generadores. Partiendo del hecho de que cuando pasa corriente por un conductor produce un campo magnético. según el tipo de motor. en automóviles se están empezando a utilizar en vehículos híbridos para aprovechar las ventajas de ambos. el cual establece que si un conductor por el que circula una corriente eléctrica se encuentra dentro de la acción de un campo magnético. además si lo ponemos dentro de la acción de un campo magnético potente. comerciales y particulares. éste tiende a desplazarse perpendicularmente a las líneas de acción del campo magnético. si se los equipa con frenos regenerativos. Tiene un par de giro elevado y. Se pueden construir de cualquier tamaño. aunque en la generación de energía eléctrica de la mayoría de las redes de suministro se emiten contaminantes. que provocan. prácticamente constante. Ventajas En diversas circunstancias presenta muchas ventajas respecto a los motores de combustión: • • • • • A igual potencia. Pueden funcionar conectados a una red de suministro eléctrico o a baterías. 374 . aumentando el mismo a medida que se incrementa la potencia de la máquina). Algunos de los motores eléctricos son reversibles. Son ampliamente utilizados en instalaciones industriales. Su rendimiento es muy elevado (típicamente en torno al 75%. Este tipo de motores no emite contaminantes. Así. Dicha energía es comunicada al exterior mediante un dispositivo llamado flecha. Principio de funcionamiento Los motores de corriente alterna y los de corriente continua se basan en el mismo principio de funcionamiento. debido a la interacción con los polos ubicados en el estator.MOTOR ELECTRICO Un motor eléctrico es una máquina eléctrica que transforma energía eléctrica en energía mecánica por medio de interacciones electromagnéticas. el producto de la interacción de ambos campos magnéticos hace que el conductor tienda a desplazarse produciendo así la energía mecánica. el movimiento circular que se observa en el rotor del motor. El conductor tiende a funcionar como un electroimán debido a la corriente eléctrica que circula por el mismo adquiriendo de esta manera propiedades magnéticas.

Le afectan poco la variaciones bruscas de la tensión de alimentación. la debilitación del campo puede resultar en exceder la máxima velocidad segura del motor sin carga. debido a que la velocidad de un motor de corriente contínua aumenta al disminuir el flujo inductor y. Los motores compound se conectan normalmente de esta manera y se denominan como compound acumulativo. El flujo del campo serie varia directamente a medida que la corriente de armadura varía. del flujo y de la fuerza contraelectromotriz.Se embala cuando funciona en vacío. Los motores compuestos tienen un campo serie sobre el tope del bobinado del campo shunt. ni tan “suave” como la de un motor serie. estabilizandose la intensidad absorbida. Motor compound Un motor compound (o motor de excitación compuesta) es un Motor . este disminuye al aumentar la velocidad. Esto provee una característica de velocidad que no es tan “dura” o plana como la del motor shunt. es conectado en serie con la armadura y lleva la corriente de armadura.La potencia es casi constante a cualquier velocidad.Motores de corriente continua Los motores de corriente continua se clasifican según la forma como estén conectados. es un tipo de motor eléctrico de corriente continua en el cual el inducido y el devanado inductor o de excitación van conectados en serie. el cual consiste de pocas vueltas de un alambre grueso. . en: Motor seria El motor serie o motor de excitación en serie. El campo serie se conecta de manera tal que su flujo se añade al flujo del campo principal shunt. inductor serie e inductor auxiliar. por lo tanto. puesto que la intensidad en el inductor es la misma que en el inducido. . ya que un aumento de esta provoca un aumento de la intensidad y. El motor compound es un motor de excitación o campo independiente con propiedades de motor serie. la corriente de excitación o del inductor es también la corriente del inducido absorbida por el motor. Las principales este motor son: características de eléctrico de corriente continua cuya excitación es originada por dos bobinados inductores independientes. Este campo serie. uno dispuesto en serie con el bobinado inducido y otro conectado en derivación con el circuito formado por los bobinados: inducido. El 375 . en el motor serie. Los motores de corriente continua compound son algunas veces utilizados donde se requiera una respuesta estable de par constante para un rango de velocidades amplio. y es directamente proporcional a la carga. Por lo tanto. Un motor compound tiene un limitado rango de debilitamiento de campo.

Estos sistemas. que producen rozamiento. Cuantos más amperios pasan por el inducido mas campo serie se origina claro esta siempre sin pasar del consumo nominal.motor da un par constante por medio del campo independiente al que se suma el campo serie con un valor de carga igual que el del inducido. Los motores de corriente continua en derivación son adecuados para aplicaciones en donde se necesita velocidad constante a cualquier ajuste del control o en los casos en que es necesario un rango apreciable de velocidades (por medio del control del campo). El motor shunt o motor de excitación en paralelo es un motor eléctrico de corriente continua cuyo bobinado inductor principal está conectado en derivación o paralelo con el circuito formado por los bobinados inducido e inductor auxiliar. puede ser conductor. El motor en derivación se utiliza en aplicaciones de velocidad constante. pesan menos y requieren menos mantemiento. Al igual que en los dinamos shunt. como en los accionamientos para los generadores de corriente continua en los grupos motogeneradores de corriente continua Motor eléctrico sin escobillas Motor eléctrico paralelo. el régimen de giro apenas sufre variación. además. requieren mucho mantenimiento y pueden producir partículas de carbón que manchan el motor de un polvo que. (también uno de los componentes del motor de corriente continua). Motor shunt Es el tipo de motor de corriente continua cuya velocidad no disminuye mas que ligeramente cuando el par aumenta. el par motor que se desarrolla es menor que el motor serie. gracias a la electrónica. Al disminuir la intensidad absorbida. disminuyen el rendimiento. Esta complejidad prácticamente se ha 376 . las bobinas principales están constituidas por muchas espiras y con hilo de poca sección. Los primeros motores sin escobillas fueron los motores de corriente alterna asíncronos. En el instante del arranque. Hoy en día. desprenden calor y ruido. ya que son más baratos de fabricar. se muestran muy ventajosos. pero su control era mucho más complejo. por lo que la resistencia del bobinado inductor principal es muy grande. Los motores eléctricos solían tener un colector de delgas o un par de anillos rozantes. Un motor eléctrico sin escobillas o motor brushless es un motor eléctrico que no emplea escobillas para realizar el cambio de polaridad en el rotor.

eliminado el primer paso. El motor paso a paso se comporta de la misma manera que un convertidor digital-analógico y puede ser gobernado por impulsos procedentes de sistemas lógicos. lo que significa es que es capaz de avanzar una serie de grados (paso) dependiendo de sus entradas de control. En este caso. con un redimiento mucho mayor que un motor de corriente continua con escobillas. el sistema electrónico corta el suministro de corriente. ventiladores de ordenador. Para hacer el cambio se deberían cruzar dos conductores del sistema electrónico.eliminado con electrónicos. Este motor presenta las ventajas de tener alta precisión y repetibilidad en cuanto al posicionamiento. Además de los anteriores. se usa en los alternadores. motor de corriente continua sin escobillas. la espira sólo es impulsada cuando el polo es el correcto. como lectores de CD-ROM. que sólo funcionan con corriente continua son los que se usan en pequeños aparatos eléctricos de baja potencia. Para detectar la posición de la espira del rotor se utiliza la detección de un campo magnético. Este sistema electrónico. que a la vez es inducido. Algunas aplicaciones serían los coches y aviones con radiocontrol. para evitar este rozamiento en los anillos. Actualmente. e incluso cortar la corriente si se detiene para que no se queme. servomotores y motores controlados digitalmente. y cuando no lo es. etc. En este caso no se evita el uso de anillos rozantes. estos motores de corriente alterna se pueden usar en aplicaciones de corriente continua. Otras veces se puede alimentar directamente con corriente continua. Su mecanismo se basa en sustituir la conmutación (cambio de polaridad) mecánica por otra electrónica sin contacto. Tienen la desventaja de que no giran al revés al cambiarles la polaridad (+ y -). además. y otra vez en alterna de otra frecuencia. Entre sus principales aplicaciones destacan como motor de frecuencia variable. 377 . los alternadores tienen el campo magnético inductor en el rotor. Otros motores sin escobillas. Un sistema algo parecido. que funcionan con pilas. Como el campo magnético del inductor necesita mucha menos corriente que la que se va generar en el inducido. que induce el campo magnético al estator. o si está parado. los controles El inversor debe convertir la corriente alterna en corriente continua. Esta configuración la usan desde pequeños alternadores de coche hasta los generadores de centrales con potencias del orden del megavatio. se necesitan unos anillos con un rozamiento menor. sino que se evita usar uno más robusto y que frenaría mucho el motor. puede informar de la velocidad de giro. Por este motivo. cassetes. existe otro tipo que es utilizado en electrónica: Motor paso a paso El motor PaP es un dispositivo electromecánico que convierte una serie de impulsos eléctricos en desplazamientos angulares discretos.

el motor magnetización permanente. el cual intentará alinearse con campo magnético inducido por las bobinas que excitan los electroimanes (en este caso A y B).) chato Tabla de orden de fases.. • de de de el +Vcc -Vcc +Vcc -Vcc Observese como la variación de la dirección del campo magnético creado en el estator producirá movimiento de seguimiento por parte del rotor de imán permanente. 12V. 24V. Vcc es la alimentación de corriente continua (por ejemplo 5V. y motor paso a paso híbrido..Existen 3 tipos fundamentales motores paso a paso: el motor reluctancia variable. En este caso concreto -Vcc el motor +Vcc tendrá un paso angular de 90º y un semipaso de 45º (al excitarse más de una bobina) +Vcc -Vcc +Vcc -Vcc Paso Termin al 1 Bobina A Termin al 2 Bobina A Termin al 1 Bobina B Termin al 2 Imagen Bobina -Vcc B +Vcc Paso 1 +Vcc -Vcc -Vcc +Vcc -Vcc +Vcc 378 .

Puede comenzar a vibrar pero sin llegar a girar. donde: • • f: frecuencia del tren de impulsos n: nº de polos que forman el motor Si bien hay que decir que para estos motores. permiten la alimentación en un sentido. si cambiamos el sentido de la alimentación activando T2 y T3. se establece el principio de "Puente H". T4 Velocidad de rotación La velocidad de rotación definida por la ecuación: viene Control de las bobinas Para el control del motor paso a paso de este tipo (bipolar). O puede llegar a girar en sentido opuesto. Si la frecuencia de pulsos es demasiado elevada. T3. la máxima frecuencia admisible suele estar alrededor de los 625 Hz. si se activan T1 y T4. Puede girar erráticamente.Paso 7 -Vcc +Vcc (Semi)Paso +Vcc 8 -Vcc -Vcc +Vcc variación de la alimentación de corriente de la bobina A según los transistores T1. T2. 379 . cambiaremos el sentido de alimentación y el sentido de la corriente. el motor puede reaccionar erróneamente en alguna de las siguientes maneras: • • Topología de "puente en H" para las bobinas A y B • • Puede que no realice ningún movimiento en absoluto.

pero la inercia permitida de la carga es pequeña.5. 45 o 90°.8°. 18. se clasifican de la siguiente manera: Asíncrono o de inducción Los motores asíncronos o de inducción son aquellos motores eléctricos en los que el rotor nunca llega a girar en la misma frecuencia con la que lo hace el campo magnético del estator. y rota cuando los dientes del rotor son atraídos a los dientes del estator electromagnéticamente energizados. Generalmente. Dependiendo de la construcción del motor. El ángulo de rotación se determina por el número de polos en el estator El motor de paso de reluctancia variable (VR): Tiene un rotor multipolar de hierro y un estator devanado laminado. Jaula de ardilla Un rotor de jaula de ardilla es la parte que rota usada comúnmente en un motor de inducción de corriente alterna.25. Cuanto mayor es el par motor mayor es esta diferencia de frecuencias.lo importante es que también coloquen a disposición un simulador o circuito para probar estos motores paso a paso para descartar fallas en ello. Se puede ver que esta configuración es una mezcla de los tipos de reluctancia variable e imán permanente. el rotor con un imán concéntrico magnetizado axialmente alrededor de su eje. el par estático de este tipo de motor es cero. el paso angular de este motor de paso de reluctancia variable es de 15° El motor híbrido de paso: Se caracteriza por tener varios dientes en el estator y en el rotor. Cuando los devanados no están energizados. Motores paso a paso Bipolares: Estos tienen generalmente 4 cables de salida.A. 11. La inercia del rotor de un motor de paso de reluctancia variable es pequeña y la respuesta es muy rápida. Necesitan ciertos trucos para ser controlados debido a que requieren del cambio de dirección de flujo de corriente a través de las bobinas en la secuencia apropiada para realizar un movimiento. Este tipo de motor tiene una alta precisión y alto par y se puede configurar para suministrar un paso angular tan pequeño como 1. Tipos de motores paso a paso [editar] El motor de paso de rotor de imán permanente: Permite mantener un par diferente de cero cuando el motor no está energizado. Motores de corriente alterna Los motores de C. Motores paso a paso unipolares: estos motores suelen tener 5 o 6 cables de salida dependiendo de su conexioado interno. es un cilindro 380 . Un motor eléctrico con un rotor de jaula de ardilla también se llama "motor de jaula de ardilla". Este tipo se caracteriza por ser más simple de controlar. es típicamente posible obtener pasos angulares de 7. En su forma instalada. 15.

lleva unas bobinas que se conectan a unos anillos deslizantes colocados en el eje. Motor de doble capacitor. El nombre se deriva de la semejanza entre esta jaula de anillos y barras y la rueda de un hámster (ruedas probablemente similares existen para las ardillas domésticas) Artículo principal: Jaula de ardilla estrella o en triángulo. Las tensiones en cada fase en este caso son iguales al resultado de dividir la tensión de línea por raíz de tres. el rotor gira a las mismas revoluciones que lo hace el campo magnético del estator. Motor universal Motor de Inducción-Repulsión. Rotor Devanado El rotor devanado o bobinado. Posee un capacitador electrolítico en serie con la bobina de arranque la cual proporciona más fuerza al momento de la marcha y se puede colocar otra en paralelo la cual mejora la reactancia del motor permitiendo que entregue toda la potencia. A tres fases La mayoría de los motores trifásicos tienen una carga equilibrada. es decir. Cambio de sentido de giro Para efectuar el cambio de sentido de giro de los motores eléctricos de corriente alterna se siguen unos simples pasos tales como: Trifásicos • Motor de Inducción. Motor de arranque a condensador. Posee dos bobinas una de arranque y una bobina de campo. como su nombre lo indica. Monofásicos • • Monofásicos • • • • • Motor de arranque a resistencia. Trifásico • • • Motor de rotor devanado. Internamente contiene barras conductoras longitudinales de aluminio o de cobre con surcos y conectados juntos en ambos extremos poniendo en cortocircuito los anillos que forman la jaula. Motor asíncrono Motor síncrono Síncrono En este tipo de motores y en condiciones normales. si la tensión de línea es 380 V. entonces la tensión de cada fase es 220 V.montado en un eje. por medio de unas escobillas se conecta el rotor a unas resistencias que se pueden variar hasta poner el rotor en corto circuito al igual que el eje de jaula de ardilla. Motor de marcha. Motor de polos sombreados. Por ejemplo. ya estén conectados en 381 . consumen lo mismo en las tres fases.

Regulación de velocidad En los motores asíncronos trifásicos existen dos formas de poder variar la velocidad.• • Para motores monofásicos únicamente es necesario invertir las terminales del devanado de arranque Para motores trifásicos únicamente es necesario invertir dos de las conexiones de alimentación correspondientes a dos fases de acuerdo a la secuencia de trifases. 382 . una es variando la frecuencia mediante un equipo electrónico especial y la otra es variando la polaridad gracias al diseño del motor. o los motores de conexión Dahlander. Esto último es posible en los motores de devanado separado.

a menudo acompañados de alucinaciones. En diciembre de 1878 dejo Graz y rompió las relaciones con sus familiares. el podía verlo involuntariamente en un detalle realista. mantenía una disciplina dura con ellos. Tesla se ocupaba leyendo muchas obras. Por el solo hecho de escuchar el nombre de una cosa. en un seminario ortodoxo donde su delicada salud sería atendida. querían que Nikola Tesla siguiera la carrera eclesiástica de su padre. era más que de esperarse que el joven Tesla desarrollara un hambre de conocimiento que lo llevaría muy pronto a realizar pequeñas invenciones como un motor impulsado con insectos o un molino de viento de palas lisas. Estudios académicos Nikola Tesla estudió ingeniería eléctrica en la Universidad de Graz en la ciudad del mismo nombre en 1875. Se dice que podía recitar largos poemas clásicos que su marido le había enseñado. Sus padres. Sin embargo. Con tal herencia y circunstancias. Sin embargo. También. Algunas fuentes afirman que recibió la licenciatura de la Universidad de Graz. El sufrió una afección peculiar en la cual haces de luz cegadores. supuestamente tenía una memoria fotográfica. los cuales desde muy corta edad le presentarían obstáculos para desarrollar su genialidad. durante el cual suspendió sus estudios. Nikola Tesla sorprendió a sus maestros con su avanzada capacidad para las matemáticas. Su padre. Su madre. la condición llamada sinestesia presenta síntomas similares.Nikola Tesla El comienzo Nikola Tesla nació el 9 de julio de 1856 en Smiljan. La mayor parte del tiempo las visiones estaban asociadas a una palabra o idea que podía haber captado. de nombre Djuka. Sus amigos pensaban que se había ahogado en el río Mura. Sin embargo. (hoy Eslovenia). como por ejemplo un batidor de huevos mecánico. Nikola Tesla hizo prometer a su padre que si sobrevivía a los males que lo aquejaban podría ingresar en ingeniería. de nombre Milutin Tesla. el joven Nikola Tesla era susceptible a los problemas de salud. donde obtuvo el primer empleo como asistente de un ingeniero por un año. Croacia. la universidad afirma que no recibió ningún grado y que no continuó más allá del segundo semestre del tercer año. podían aparecer ante sus ojos. Desde los 12 años. Se dirigió a Maribor. memorizando libros completos. esto evidenciaba la fuente del carácter inventivo e ingenioso de Nikola Tesla. era un clérigo ortodoxo que amaba profundamente a sus hijos y no obstante. Actualmente. tenía una memoria pródiga a pesar de su analfabetismo. 383 . su madre era muy hábil en la construcción de "inventos" que ayudaran en el quehacer doméstico. al ser conscientes de su precaria salud.

Primeros empleos En 1880. antes de iniciar la etapa de construcción. tardó bastante en desarrollar su teoría. un joven inventor serbio que vivía en Austria. Allá conoció a Nebojša Petrović. diseñando mejoras para el equipo eléctrico. trabajaron juntos en un proyecto usando gemelas para generar continua. Tesla concibió el motor de inducción e inició el desarrollo de varios dispositivos que usaban el campo magnético rotativo para el cual recibió la patente en 1888. y fue más tarde ingeniero para el primer sistema telefónico del país. Sin embargo. en lugar de ello el concebía todas las ideas con la mente. También a menudo tenía reminiscencias de eventos que le habían sucedido previamente en su vida. completando solamente un periodo. Rechazó la idea de su profesor. También desarrolló un dispositivo que. Tesla podía visualizar una invención en su cerebro con precisión extrema. de acuerdo a algunos. dejó la Universidad. En el mismo año. Encuentro con Edison En junio de 1884. Tesla se había convertido en el eléctrico en jefe de la compañía. incluyendo todas las dimensiones. En los años siguientes. sacando a flote las ideas de Edison. Tesla jamás fallaba cuando se trataba de resolver problemas científicos. Tesla llegó por primera vez a los Estados Unidos a la ciudad de Nueva York con pocos 384 . turbinas energía Durate la apertura de la central telefónica en 1881 en Budapest. para trabajar como ingeniero en la Continental Edison Company (una de las compañías de Thomas Alva Edison). A pesar de que su encuentro fue breve. quien enseñaba a sus alumnos que era imposible desarrollar motores y generadores AC. Tesla descubrió las limitaciones inherentes de los motores y generadores DC debidas a la producción de chispas asociada con la acción colectora (la interrupción de polaridad de corriente en un motor para resguardar el movimiento del arrollamiento inducido).Tesla fue posteriormente persuadido por su padre para asistir a la Universidad Carolina en Praga. pero según otros pudo haber sido el primer altavoz. a la cual ingresó para el verano de 1880. Tesla se abocó a esta tarea. se trasladó a Budapest para trabajar bajo las órdenes de Tivadar Puskás en una compañía de telégrafos. Sin embargo después que su padre falleció. Francia. Tesla acostumbraba a no dibujar esquemas. Su "instinto" le indicaba que el profesor estaba equivocado. Este descubrimiento convenció a Tesla de la necesidad de desarrollar motores y generadores de corriente alternante que no necesiten colectores. era un repetidor telefónico o amplificador. Aquí fue influenciado por Ernest Mach. Primeros estudios sobre la corriente alterna (AC) Mientras se encontraba en la Universidad de Gratz. En 1882 Tesla se trasladó a París. una técnica algunas veces conocida como pensamiento visual.

K." rompiendo así su palabra. A principios de 1887. resolviendo algunos de los problemas más difíciles de la compañía. Casualmente. Tesla tendría que haber trabajado por 53 años para devengar el monto que le fue prometido. Tesla se vio forzado a trabajar como obrero. Se le ofreció entonces la tarea de rediseñar completamente los generadores de corriente directa de la compañía de Edison. Decidió recomendarlo a A. La oferta era igual al capital inicial de la compañía. No sólo se concentró en sistemas de fase simple. a fin de mostrar y hacer entender sus trabajos a otros científicos. Ganando solo 18 dólares a la semana. usted es unos de ellos. Tesla entonces renunció de inmediato cuando se rehusó a trabajar con un salario de 25 dólares a la semana. Batchelor escribió: “yo conozco a dos grandes hombres. Brown de la Western Union Telegraph Company. pero usó este tiempo para concentrarse en su sistema polifásico de CA. necesitado de trabajo. haciéndole mejoras tanto en servicio como en economía. Empezó a trabajar para Edison como un simple ingeniero eléctrico y progresó rápidamente. También desarrolló la teoría matemática necesaria para explicar la operación de sistemas AC. El veía el trabajo manual como una labor terrible. se vio abocado a cavar zanjas por un corto periodo de tiempo para la compañía de Edison. el nuevo laboratorio de Tesla estaba ubicado dentro de un edificio que pertenecía a Edison. En la carta de recomendación a Tomas Edison. 385 . bi-fásicos y tri-fásicos. En 1885 cuando Tesla preguntó acerca del pago por su trabajo. Edison replicó. Edison contrató a Tesla para trabajar en su Edison Machine Works. Brown y un amigo aportaron el dinero para crear la "Tesla Electric Light & Manufacturing". En abril. usted no entiende nuestro humor americano. En 1888 los patentó. El capataz también estaba obligado a realizar un trabajo por debajo de sus capacidades. el otro es este joven”. sino que también experimentó con dispositivos de 4 y hasta 6 fases. "Tesla.1 millones de dólares en 2007. un empleado antiguo. Tesla afirmaba que Edison le ofreció 50.000 dólares (1. Tesla dijo que trabajó día y noche en el proyecto y le dio a la compañía de Edison algunas Patentes nuevas y rentables durante el proceso. los comentarios sobre sus proyectos con AC atrajeron a su capataz. Tesla se dedicó a desarrollar una serie de inventos fundamentales. La compañía eléctrica Tesla Tesla. ajustado por inflación) si rediseñaba los motores y generadores ineficientes de su compañía. Comprobada la eficiencia de sus sistemas AC. Al no encontrar un puesto como ingeniero. el motor de inducción que había construido en Europa y otras máquinas que tenía en mente diseñar desde su permanencia en Budapest. y pronto simpatizó con la situación de Tesla. Pronto Tesla construyó un generador AC de dos fases.haberes aparte de una carta de recomendación de Charles Batchelor.

usando su propio tubo de vacío de una terminal (similar a su patente USPTO nº 514170). Los sistemas DC de Edison no podían distribuir potencia más allá de media milla del generador debido a las excesivas caídas de voltaje producidas por la resistencia de las líneas de alto voltaje y la enorme corriente que fluía por las líneas. Los voltajes AC. Tesla retornó a su laboratorio de Nueva York. Insatisfecho con trabajar para terceros. Los transformadores convierten los voltajes AC a niveles seguros en el punto donde se utiliza la potencia. Surgieron problemas cuando los ingenieros de Westinghouse intentaron usar los diseños de Tesla para producir motores de fase-simple pequeños. se le concedió la ciudadanía norteamericana. Tesla estaba seguro de que sus máquinas AC operaban de manera más eficiente a una frecuencia de 60 Hz (entonces "ciclos por segundo") mientras que los ingenieros de Westinghouse usaban frecuencias de 133 Hz. dependientes de su venta exclusiva. Tesla aceptó la oferta. Este dispositivo difería de otros tubos de 386 . Rayos x En abril de 1887. Reconoció las ventajas que ofrecían los sistemas de potencia AC respecto de los DC y divisó el gran potencial comercial de los trabajos realizados por Tesla. eran diferentes de los objetivos que se proponía Tesla con sus investigaciones. las prioridades y urgencias por fabricar sistemas de potencia AC de Westinghouse.Sus geniales creaciones y logros se difundieron rápidamente. Brown y el socio que financiaron su trabajo. Ya había logrado solventarse por sí mismo y deseaba retornar a sus proyectos. reduciendo así la corriente y las pérdidas de la transmisión. Rechazó una oferta muy lucrativa de Westinghouse para permanecer en Pittsburgh. George Westinghouse era un afamado inventor que había hecho una fortuna en Pittsburgh fabricando frenos neumáticos para trenes y una variedad de dispositivos eléctricos. Ya era entonces reconocido y aceptado como miembro de la Asociación de Ingenieros Eléctricos. Luego de su presentación en la AIEE. en cambio. Además. Westinghouse se contactó con Tesla para ver en persona su equipamiento AC. El 16 de mayo de este año fue invitado a ofrecer una ponencia sobre "Un nuevo sistema para motores y transformadores de Corriente Alternante" en la AIEE de Nueva York. K. Después de abandonar esta ciudad. Había accedido a una riqueza jamás soñada. El resultado es un aumento sustancial del rango de distribución. Le cedió medio millón a A. También lo invitó a Pittsburgh por un año y le ofreció un alto salario como asesor técnico. Ambos tenían intereses en común e inmediatamente entablaron una buena relación. Tesla empezó a investigar lo que después se llamó rayos X. Alianza con Westinghouse Para aquella época. se elevan en el generador usando transformadores. Westinghouse le ofreció a Tesla un millón de dólares por sus patentes AC.

También mencionó los peligros de trabajar con sus circuitos y con los rayos X producidos por sus dispositivos de un solo nodo. Una vez liberados los electrones son fuertemente repelidos por campo eléctrico elevado cerca al electrodo durante los picos de voltaje negativo de la salida oscilante de alto voltaje de la bobina de Tesla. atribuyó el daño de la piel a varias causas. En el mismo año.138. Tesla realizó demostraciones con varias máquinas ante el Instituto Americano de Ingenieros Eléctricos en la Universidad de Columbia. en electro-láser. sino por el ozono generado al contacto con la piel y en parte también al ácido nitroso. De muchas de sus notas en las investigaciones preliminares de este fenómeno. El creyó que inicialmente que el daño en la piel no podría ser causado por los rayos de Roentgen. El mismo principio es usado en pararrayos. sin 387 . arma de electrochoque. es posible mediante el uso de un rayo ultravioleta de alto poder que produjera u canal ionizado en el aire. En sus primeras investigaciones Tesla diseñó algunos experimentos para producir rayos X. Demostró de esta forma que todo tipo de aparatos podían ser alimentados a través de un único cable sin un conductor de retorno. El pensaba que éstas eran ondas longitudinales. el cual funcionaría mediante la trasmisión de energía por varios medios naturales y el uso subsiguiente de la corriente trasmitida entre los dos puntos para alimentar dispositivos eléctricos.S. entre las estaciones de emisión y recepción. En la práctica este principio de trasmisión de energía. Ahora se sabe que este dispositivo operaba emitiendo electrones desde el único electrodo (carecía de electrodo receptor) mediante la combinación de emisión de electrones por efecto de campo y emisión termoiónica. se percató del daño en la piel que Wilhelm Röntgen mas tarde identificó que era causada por los rayos X. y también se ha propuesto para inhabilitar vehículos. «el instrumento podría generar rayos de Roentgen de mayor potencia que la obtenida con aparatos ordinarios».593. El afirmó que con estos circuitos.rayos X por el hecho de no tener electrodo receptor. El término moderno para el fenómeno producido por este artefacto es Bremsstrahlung (o radiación de frenado). Este sistema de transmisión unifilar fue protegido en 1897 por la patente U. Tesla demostró que usando una red eléctrica resonante y usando lo que en aquél tiempo se conocía como "corriente alterna de alta frecuencia" (hoy se considera de baja frecuencia) sólo se necesitaba un conductor para alimentar un sistema eléctrico. Bobina de Tesla Tesla demostró la transmisión inalámbrica de energía" a principios de 1891. A finales del siglo XIX. Tesla también usó tubos de Geissler. Para 1892.0. como las producidas por las ondas en plasmas. generando rayos X al chocar con la envoltura de vidrio. Propuso un sistema mundial para la trasmisión de energía eléctrica sin cables basado en la conductividad eléctrica de la tierra.

sus experiencias presentan una sorprendente similitud con los trabajos más tardíos en materia de comunicaciones a muy bajas frecuencias. Ilustré este principio mediante numerosos experimentos que. consigue concebir un sistema de transmisión de energía sin hilos. desarrolló la silla eléctrica. La transmisión de energía y la utilización de las ondas de alta y baja frecuencia En 1899. Tesla fue considerado desde entonces el fundador de la industria eléctrica. Sus investigaciones sobrepasan a todas las realizadas sobre electromagnetismo. generaron una atención considerable entre los hombres de ciencia". consiguiendo en 1896 transmitir electricidad a la ciudad de Búfalo (Nueva York). No obstante. Transmisión de energía sin hilos 388 . en su momento.necesidad de otro metal ni un conductor de tierra. En 1893 se hizo en Chicago una exhibición pública de la corriente alterna. Tesla llamó a este fenómeno la "transmisión de energía eléctrica a través de un único cable sin retorno". por lo que Harold P. claves de la emisión y recepción de ondas radioeléctricas con selectividad y potencia gracias al fenómeno de la resonancia. Edison aún trataba de disuadir la teoría de Tesla mediante una campaña para fomentar ante el público el peligro que corrían al utilizar este tipo de corriente. sino que cualquier cantidad de energía podría ser transmitida usando un único cable. un empleado de Thomas Edison contratado para investigar la electrocución. Tesla se retira a las montañas de Colorado Springs para experimentar con las ondas electromagnéticas. la corriente alterna sustituyó a la continua. y descubre el fenómeno de las ondas estacionarias. Guerra de corrientes Empeñado Tesla en mostrar la superioridad de la CA sobre la CC de Edison se desarrolló lo que se conoce como "guerra de las corrientes". Construye un laboratorio de alta tensión. Veremos a continuación cuáles son las aplicaciones de las invenciones y descubrimientos de Tesla. En las cataratas del Niágara se construyó la primera central hidroeléctrica gracias a los desarrollos de Tesla en 1893. En el transcurso de sus múltiples estancias en su laboratorio. reconocí el hecho de que para transportar corrientes eléctricas a largas distancias no era en absoluto necesario emplear un cable de retorno. Brown. demostrando su superioridad sobre la corriente continua de Edison. Con el apoyo financiero de George Westinghouse. Lo que de hecho creaba y transmitía eran ondas electromagnéticas a partir de alternadores de alta frecuencia sólo que no lo aplicó a la trasmisión de señales de radio como hizo Marconi sino a un intento de trasmitir energía eléctrica a distancia sin usar cables. Tesla afirmó en 1901: "Hace unos diez años. Ideó y diseñó los circuitos eléctricos resonantes formados por una bobina y un condensador. de gran altura que rodea la más grande de las bobinas Tesla del mundo.

También llamada "onda Tesla". y una onda pasando por este punto. Si este procedimiento llega a instalarse en el mundo un día. constituyendo una vía conductora perfecta. El punto definido con anterioridad. Tesla anuncia que puede ver realizado su sueño más querido: la transmisión de energía sin ningún cable de conexión. el punto y la onda tendrán un movimiento relativo. Luego la tempestad se desplaza. Estalla una violenta tormenta: las señales se intensificaron. se obtiene una onda estacionaria. quiere establecer un sistema de transmisión de energía sin hilos. Ese 3 de julio observó que a veces sus aparatos reaccionaban más fuerte a las descargas muy lejanas que a las más cercanas. Es precisamente con este proyecto que Morgan. de distancia. que pensaba poner en marcha con la torre de Wardenclyffe. Según ellos. Si a ello se añaden dos ondas hertzianas de igual frecuencia. Morgan decidió retirar su apoyo financiero. Si se define un punto del espacio. y que están situadas a altitudes muy moderadas fácilmente accesibles. El Proyecto Wardenclyffe Tesla necesitaba obtener dinero con urgencia para lo que sería su proyecto más ambicioso: una torre gigante y un laboratorio en el cual 389 . Es adicionando dos ondas hertzianas como se obtiene una onda estacionaria. Tesla no sólo cree que el globo es un buen conductor. se pueden observar regularmente numerosas descargas naturales de relámpagos. al contrario de las ondas hertzianas. piensa probar que se pueden transmitir grandes cantidades de energía eléctrica hacia las capas superiores de la atmósfera.Durante una conferencia. quedará fijo en relación a la nueva onda así formada. Tesla consiguió encender 200 lámparas incandescentes de 50 vatios a 42 Km. y este fenómeno continúa manifestándose con una fuerza constante. Algunos de sus experimentos en Colorado Springs son explicados por periodistas. Descubrimiento estacionaria de la onda El 3 de julio de 1899 es el día que Tesla descubre el fenómeno de las ondas estacionarias. El se encuentra a 300 Km. En Colorado. " provocará una revolución industrial de una amplitud inigualada. no se desplaza. decrecen para acabar cesando. la onda estacionaria. luego después de haber pasado por un máximo. Con ello se dispondría de energía eléctrica en cualquier punto del planeta. el punto recorrerá toda la onda y por tanto. no estaba de acuerdo. Además del proyecto de radiocomunicaciones. el acreedor de Tesla por aquel entonces. como su nombre indica. a no importa qué distancia. Tesla ha observado este fenómeno a intervalos regulares. sino que las altas capas de la atmósfera son conductoras. Así pues. He aquí las observaciones que le permitieron deducir la existencia de este fenómeno.

Plerpont Morgan le proveyó $150. los reporteros comenzaron a calificarlo como un científico excéntrico y loco demasiado predispuesto a la fantasía. le confesó que el plan de transmisión de comunicaciones era en realidad un proyecto para transmitir electricidad sin costo a los hogares norteamericanos. También pensaba refinar sus planes para construir un sistema de distribución de potencia eléctrica. el inventor. a cambio de controlar las patentes que Tesla aún conservaba. el plan de Tesla se tornaba cada vez más extravagante. las finanzas disponibles alcanzaban para construir una de 187 pies de altura. De cualquier modo. quien acusó a Marconi de violar varias de sus patentes. jamás realizó ninguna transmisión inalámbrica desde 390 . Para peor. Ésta fue la última oportunidad que tuvo para demostrar que era capaz de hacer realidad el proyecto de electricidad gratuita y sin límites. todos los habitantes del área que comprende de Long Island a Connecticut pudieron observar los rayos en el cielo nocturno. Ni Westinghouse ni Astor quisieron aportar el dinero necesario. Los acreedores lo acosaban constantemente. Rumores negativos sobre el estado de sus patentes y el escepticismo con que fueron tomadas sus fantásticas predicciones le retacearon ayuda. una escalada de precios y su diseño demasiado ambicioso hicieron que fuera imposible concretar el proyecto Wardenclyffe según lo planificado. La gota que colmó el vaso fue la conversación que tuvo una noche Tesla con el millonario.000 para construir la torre y los otros dispositivos necesarios en Wardenclyffe. Desde que comentó a un grupo de periodistas que en su laboratorio de Colorado Springs había logrado captar señales de radio provenientes de un lugar en el espacio que probablemente fuera el planeta Marte. Una serie de accidentes le dio fama de mala suerte al nuevo laboratorio. el entusiasmo de Morgan iba en disminución ante la falta de resultados concretos para exhibir. con una cúpula hemisférica de 68 pies de diámetro. El oscilador de alto voltaje ya se había completado pero la falta de fondos le impedía probarlo. De todos modos. Al día siguiente Morgan cortó todo apoyo a Tesla y éste se vio obligado a buscar nuevos inversores. no consiguió nuevos apoyos financieros. Long Island. Si bien Tesla aspiraba a una torre más alta. sin embargo. Pronto. y a pesar de sus esfuerzos. Tesla se derrumbó moralmente.planeaba establecer una comunicación mundial inalámbrica. En diciembre de 1901 el proyecto Wardenclyffe aún estaba en construcción cuando Marconi logró enviar señales telegráficas inalámbricas a través del océano Atlántico usando un equipamiento mucho más simple que el propuesto por Tesla. quizás con algunas copas de más. J. Los inversores se negaron a apoyar a Tesla debido a la mala prensa que venía teniendo desde hacía algunos años. En 1906 se detuvo por completo la construcción en Wardenclyffe por la insolvencia de Tesla. Cuando lo hizo.

También presentó una serie de planos para construir lanchas torpederas a control remoto. Las propuestas de Tesla fueron ignoradas y entonces el inventor recibió un pedido de la Armada Alemana para desarrollar un nuevo sistema de propulsión eléctrico. envió uno de sus rayos para que cayera al oeste de donde este se encontraba. Coincidentemente. Aquel mismo año se dinamitó la torre por su valor en chatarra. Corrían . El rayo de la muerte En otra oportunidad dijo poseer rayo capaz de crear ondas frecuencia capaces de “partir a tierra en dos como si se tratase una manzana” un de la de entonces los primeros años de la primera guerra mundial y Tesla vio entonces la oportunidad de sumarse al esfuerzo de rearme de los Estados Unidos. durante la guerra contra España. que durante 1908. De acuerdo con su carta. en el año 1915 fue propuesto para el premio Nobel. asegurando que de haber contado con ellas. mientras su amigo Robert Peary intentaba llegar al Polo Norte. además. Finalmente. Por medio de una carta. Otros. Estados Unidos hubiera ganado la guerra en solo una tarde sin perder un solo hombre en la contienda. que se supone fue la base para el desarrollo de los motores que utilizaron luego los alemanes en sus submarinos durante la segunda guerra mundial. poco a poco comenzaron a darle también la espalda. y en 1917 ganó la medalla Edison. A pesar de este traspié. Basándose en los experimentos de la “bobina de Tesla”. se sumaron a la larga fila de personas dispuestas a opinar que se trataba de un personaje cercano a la locura y el desvarío. Reveló. Pero el ingreso de Estados Unidos en la guerra y le peligro de ser acusado de traición hizo que Tesla cortar su relación con los alemanes. Tesla jamás abandonó sus ideas sobre la transmisión de potencia inalámbrica para comunicaciones globales. misma que rechazó. presentó un proyecto para construir un artefacto capaz de lanzar un rayo electromagnético a miles de millas de distancia “capaz de derribar aviones a 400 kilómetros de distancia”. en 1915 Tesla debió entregar Wardenclyffe a sus acreedores. que tomaron partido a favor de Edison en su lucha contra el inventor serbio. y tampoco pudo desarrollar su sistema de distribución de energía eléctrica. ya había logrado resultados concretos que demostraban el enorme poder destructivo de su arma y ponía como condición para su entrega que fuera utilizado solamente con fines defensivos. De 391 Los dueños de las empresas que siempre lo habían escuchado. Pasó el tiempo y Tesla debió recurrir al gobierno para tratar de financiar sus ideas.Wardenclyffe. Denominó a su invento “el rayo de la muerte”. se dirigió al entonces presidente Wilson revelando poseer un rayo capaz de destruir grandes extensiones de tierra. vieron en él un peligroso visionario capaz de entregar energía gratuita a todos los ciudadanos.

como el de un helicóptero.000 kilómetros cuadrados de bosque fueron barridos por una explosión que se calcula tuvo el poder equivalente a una bomba atómica de 50 megatones. el piloto operaba una palanca que movía el propulsor hacia el frente de la nave. pero su eterno competidor. La turbina sin hélices Si bien el fracaso de Wardenclyffe lo desalentó. La carta fue recibida por un secretario de la presidencia y nunca llegó a su destino. Una turbina colocada en el centro de la nave tenía un propulsor montado encima. una devastadora y todavía inexplicada explosión sacudió a la zona de Tunguska. fue adaptado para operar en las profundidades y sirvió para desarrollar los sonares modernos. se ofrecía a rearmar para recuperar el equilibrio mundial. 392 . Rusia. ya que jamás se encontraron restos de algún meteorito. La explosión subsiguiente fue oída a 620 millas de distancia del lugar. Tesla continuó desarrollando ideas de largo alcance. como en un aeroplano convencional. Un fluido (líquido o gas) ingresaba bajo presión a la cámara sellada en la periferia de los discos. envió un críptico telegrama a Peary en el que le anunciaba que recibiría una inequívoca señal de Tesla mientras se encontraba de camino al Polo. Thomas Edison. Peary volvió sin haber percibido nada anormal. recomendó desechar la idea por inviable. Nunca se dio una explicación convincente al suceso. En el aire. en Siberia. Escribió que el enterarse del peligro que encerraba su invento. el que. En su carta al presidente. cráter u otro factor capaz de explicar semejante devastación. Años más tarde los británicos desarrollaron el sistema y lo denominaron radar. Cerca de 3. La turbina de Tesla consistía en una serie de discos apilados horizontalmente y espaciados a una mínima distancia. Durante 1907-1908 diseñó una aeronave VTOL (despegue y aterrizaje vertical). debido al estado desbocado de la guerra. pero patentó su diseño. el estallido se había producido en una zona alejada de sus planes.acuerdo con los registros que obran en la Fundación Tesla. En 1908 describió públicamente las limitaciones de los aeroplanos conducidos con propulsores y predijo el desarrollo de aeronaves con motores de reacción (jets). debido a errores en sus cálculos. Más tarde Tesla hizo un nuevo intento y sobre el final de la guerra propuso un haz de ondas electromagnéticas para detectar aviones y submarinos a distancia. para despegues y aterrizajes. pero que. Tesla patentó en 1909 una poderosa y liviana "turbina sin hélices" que tenía el potencial para revolucionar el diseño de los primeros transportes en términos de caballos de fuerza producidos por libra de peso. decidió desarmar la maquina hasta que estuviesen dadas las condiciones para que sea debidamente comprendida. Pero el mismo día que Peary conquistaba el Polo. conectados a un eje y cerrados en una cámara sellada. Tesla no construyó un prototipo de este VTOL. Tesla sugería que su rayo había sido el culpable de esa explosión y. luego.

no nos queda más remedio que pensar que a estas alturas deben existir sistemas tecnológicos ya perfeccionados capaces de provocar terremotos artificiales. Nikola Tesla adoptó una dieta especial de vegetales y leche con el objetivo de alcanzar los 100 años de edad. particularmente aretes de perlas. particularmente a los auditivos: cualquier sonido podía impredeciblemente perturbarlo. Nikola Tesla se vio presa de un desorden obsesivo-compulsivo en la última parte de su vida. francés.La viscosidad causaba que los discos girasen mientras el fluido se deslizaba en vías circulares hacia el eje donde abandonaba la turbina. pero los materiales inadecuados de la época. Detestaba tocar 393 . Oscilador Vibracional Mecánico Otro de sus inventos revolucionarios fue el llamado "Oscilador Vibracional Mecánico". Era insistente con la limpieza y la higiene. Nikola Tesla tenía el hábito de comenzar un proyecto. y era miso-fóbico (temor irracional hacia los gérmenes). En invierno se encerraba en su habitación a temperatura tropical sellando las rendijas con cinta. húngaro. siendo frecuente entre proyectos que durmiera tan poco como 3 horas diarias. entre otras cosas. Si esto fue así. desarrollarlo y no descansar hasta terminarlo. lo cual eventualmente lo llevó al agotamiento y a desarrollar las enfermedades psicosomáticas y neurosis obsesivas. pero sus esfuerzos fracasaron. Vivió en distintos hoteles durante la mayor parte de su vida y murió relativamente pobre. Aún hoy sus patentes de turbinas de 1909 son estudiadas atentamente por ingenieros que intentan construir su diseño de largo alcance. en el restaurante Delmonico's pedía 18 servilletas y en el hotel Alta Vista escogió la habitación 207. En uno de sus experimentos llegó a provocar un pequeño terremoto en su laboratorio de Manhattan. ya que era divisible por 3. Junto con el serbio. Se dice que pedía exactamente 18 toallas. y cuando se hospedaba en hoteles se quedaba en habitaciones con un número divisible por tres. Tesla también sufría una repulsión física hacia las joyas. italiano y latín. siempre buscaba cifras divisibles por 3. Se construyeron modelos pequeños exitosos de la turbina. él hablaba otros siete lenguajes: checoslovaco. Tesla sufría un desorden obsesivocompulsivo. impidieron que se desarrollasen diseños más grandes. y los serios problemas financieros de Tesla. Sus nervios estaban alterados sobremanera y era hipersensible a los estímulos externos del mundo. Varias compañías pagaron derechos por desarrollar el diseño de la turbina de Tesla. Tesla hablaba fluidamente varios lenguajes. Excentricidades de Nikola Tesla Al igual que otras mentes brillantes que tienden a realizar grandes cálculos e invenciones en su cabeza. y tenía varias manías y fobias inusuales. Hacía las cosas basándose el número tres. alemán. Con este aparato pretendía visualizar la dinámica de su sistema de electricidad sin hilos. inglés.

ordenando semillas especiales para las palomas que alimentaba en Central Park e incluso trayendo algunas con él a su habitación de hotel. Con la evolución del tiempo. Tesla amaba a los animales. Particularmente innovadores son sus diseños para un velocímetro de automóvil y una luz delantera locomotiva. algunas incluso enamorándose locamente de él. y un conocedor de la comida y bebida. Tesla ocasionalmente se mostraba cruel. Tesla estaba obsesionado con las palomas. y ocasionalmente vendía los derechos a terceros para que desarrollen sus conceptos. Se rehusaba a realizar convenciones sin su bobina Tesla disparando electricidad a través de la habitación. De todas maneras numerosas mujeres buscaron el afecto de Tesla. despidiendo empleados por su peso. Tesla nunca se casó. algunas de ellas entraron en el reino de la ciencia ficción mientras otras parecen violar las leyes de la naturaleza. Con estas ventas obtenía pequeñas cantidades de dinero. En 1926. Tesla era conocido por sus presentaciones espectaculares. Entre sus ideas más fantásticas se incluyen una máquina para capturar y utilizar energía de rayos cósmicos." De todas maneras. afirmando que la matanza de animales era cruel y barbárica. El amigo de Tesla. al cual llamaba "El Magnífico Macak". pero dadas sus innumerables deudas. Al mismo tiempo. Sus últimos años Tesla aún tenía ideas a desarrollar en mente. un lingüista. cuando se encontraba en situaciones sociales. indicando que en el futuro la humanidad sería dirigida por las "Abejas reinas". A pesar de su tendencia a alejarse de la gente. expresando su disgusto por la gente con sobrepeso. un apreciador de la buena música. a menudo aterrorizando a la audiencia. Tesla comentó sobre la igualdad de género para las mujeres. exigiéndoles a sus subordinados que regresaran a casa a cambiarse en varias ocasiones.000 aeronaves a 250 millas de distancia. También criticaba la ropa de los demás. Era célibe y afirmaba que su castidad era muy útil para sus habilidades científicas. y muy a menudo reflexionaba sobre el gato de su infancia. muchos hablaban de él de manera positiva y admirativa. el escritor Hawthorne. desarrolló una extrema sensibilidad a la luz. En sus últimos años se convirtió en vegetariano. El creía que las mujeres se convertirían en el sexo dominante en el futuro. una técnica para establecer comunicación con otros planetas y un arma de partículas de rayos para destruir una armada de 10. mostrando sus innovaciones al público de manera artística. Muchas de sus ideas eran más prácticas. 394 . un filósofo. escribió que era muy poco común "conocer a un científico o ingeniero que también era un poeta. el sonido y otras influencias. Esto parecía contradecir con su reclusión. Tesla era una figura complicada.cabello humano que no fuera el suyo tanto como objetos esféricos. como si fuera un mago.

se comenta que llegó a inventar entre 700 y 1600 dispositivos. A pesar de sus problemas financieros crónicos. sin causar daños. podemos destacar: La bobina de Tesla Es un transformador de aire con bobinas primarias y secundarias alineadas sobre la resonancia que convierte a las altas frecuencias de las corrientes elevadas de tensiones relativas débiles. incluidos tres premios Nobel. Tesla murió solo en una pequeña habitación de hotel el 7 de enero de 1943 a los 86 años. Muerte de Tesla Tesla vivió los últimos 10 años de su vida en una suite de dos habitaciones en el piso 33 del Hotel New Yorker. Entre su amplia lista de creaciones. cerca del final de su vida. se convertirá muy rápidamente en parte del equipo de todo laboratorio de investigación universitaria. En la catedral de Nueva York donde se llevaron a cabo sus funerales se reunieron más de dos mil personas. Avidos acreedores aguardaban ansiosos el envío de estos fondos. Hugo Gernsback. gran admirador del famoso científico e inventor. Gernsback mandó construir una máscara mortuoria de cobre con la imagen del sabio científico que aún se conserva en sus oficinas como un recuerdo personal. podría ser considerado el mayor científico y el mejor inventor de la historia (al menos conocido). ¡Los miliamperios que penetran los tejidos nerviosos pueden matar mientras que muchos amperios en la superficie de la piel pueden ser tolerados durante breves instantes! La bobina de Tesla sirve como dispositivo de producción de altas tensiones. En 1937 el gobierno de Yugoslavia recompensó a Tesla con una pensión mensual de $600. en corriente débil de altas tensiones. 395 .vivió en un estado rayano a la pobreza por el resto de sus días. Tesla mostró signos de enfermedad mental. Mientras las frecuencias sean elevadas. Utilizada en la actualidad de una u otra forma en todo receptor de radio o de televisión. las corrientes alternativas de las tensiones muy altas se deslizan ampliamente sobre la superficie de la piel. Allí. Tesla desechó su acusación de que Westinghouse había violado sus patentes sobre inalámbricos. Tesla se tornó en un ser ermitaño y excéntrico. Hacia el final de sus días. afirmando ser visitado por una paloma blanca en específico diariamente. Tesla siempre intentó brindar una imagen personal sofisticada y elegante. A cambio. Arribaron tributos de notables figuras políticas y científicos de todo el mundo. de los cuales la gran mayoría se desconocen. En 1934 la Westinghouse Corporation evitó que terminara en la calle al pagarle sus rentas y un estipendio mensual como consultor. habitación 3327. Entre los más destacables y que han llegado al conocimiento del público en general. Inventos y importantes descubrimientos más Tesla. fue uno de los primeros en ser notificados de su muerte.

equipos de investigadores americanos y franceses trabajan paralelamente sin descanso para poner a punto un sistema de funcionamiento según sus principios. En 1890. y sin que el enemigo pueda nunca localizar ni identificar la potencia que le ha destruido ".Su bobina tiene varias aplicaciones médicas. El radar El radar es el instrumento base de defensa en todos los países modernos del mundo. Tesla.30 metros. utilizando aparatos concebidos precisamente según los principios enunciados por Tesla. En 1934. lo que les proporciona mucho dinero. un equipo francés pone a punto e instala el radar en barcos y en estaciones terrestres. Tesla descubre el principio del radar en 1900. Concibió que un día se pudieran dirigir vehículos a centenares de kilómetros sin que estuvieran tripulados. se publicó un artículo que otorga valores terapéuticos para el cuerpo humano al calentamiento interno por medio de corrientes de altas frecuencias. en el radar. Funciona como los ultrasonidos de los murciélagos: se envía un rayo concentrado de una corriente de minúsculas cargas eléctricas vibrando a una frecuencia muy grande. una de las cuales era sumergible. Este fenómeno será conocido con el término de diatermia Los médicos se interesan cada vez más en el oscilador terapéutico de Tesla. Creó naves-robot teledirigidas. y los responsables de la defensa americana consideran su proyecto como un sueño irrealizable. tras analizarlo. que tanto trabajó para inaugurar la era de la automatización. que califican como experimento de laboratorio. Sus investigaciones le impulsan especialmente hacia algunas bases de la informática: los inventores que en la segunda mitad del siglo veinte querían registrar patentes en el terreno informático se dieron cuenta 396 . Quince años después de la descripción del radar por Tesla. Venden bobinas médicas a hospitales y laboratorios. siente que está en un mundo que no está claramente preparado. Afirma que un reducido número de estos ingenios basta para " atacar y derrotar a toda una armada en una hora. Los robots teledirigidos Tesla sentó las bases de los teleautomatismos. publica los principios de lo que se convertirá. se obtiene una imagen del objetivo. a pesar de sus problemas financieros. para que rebote en el objetivo. casi tres décadas después. utilizando la telegrafía sin hilos. Sus patentes de 1895 contienen en realidad las especificaciones de un barco torpedero no tripulado. Pero las ideas de Tesla se hallan demasiado avanzadas para la época. lo pone a punto y. luego se recibe de nuevo el rayo y. El radar fue de gran ayuda a los ingleses durante la segunda Guerra Mundial para prevenir los ataques aéreos de los alemanes. una pequeña bobina de Tesla. equipado con seis torpedos de 4.

576). Marconi niega haber tenido conocimiento del sistema de Tesla. Bardeen y Schockley han sido cubiertos de honores por la invención del transistor. Christopher Priest. David Bowie interpreta al personaje de Tesla. Pero en 1943 se acabó la confusión: la corte suprema de Estados Unidos estableció que Tesla era el autor del descubrimiento inicial de la radio. realizó la primera demostración pública de comunicación por radio. autor inglés contemporáneo. que ha hecho de las calculadoras electrónicas una realidad física ". hecho que generalmente se atribuye a Marconi en 1895. También ha utilizado 17 de sus otras patentes. que 397 . La prensa mundial se hace eco de la noticia. injustamente atribuida a Marconi. iban a utilizar las patentes de Tesla para desarrollar la radio comercial. En la novela Hyperion de Dan Simmons se mencionan en el primer capítulo los árboles Tesla. a quien recurre Robert Angier pidiéndole que invente una máquina de teleportacion. Esta información todavía no se ha incorporado a las enciclopedias pero los ingenieros de radio concuerdan en decir que es Tesla quien se halla en el origen de la radio. Tesla en ese momento se hallaba (en la ficción) trabajando en un proyecto para teletrasportar electricidad de un punto a otro. Tesla en la cultura popular En su novela El Prestigio. Gracias a su potente receptor de radio escucha extraños sonidos rítmicos. utilizó la patente básica de Tesla (n°645. Lo que siguió fue una encarnizada competición entre los dos hombres. Esta novela fue adaptada para el cine por Christopher Nolan. Marconi transmitió el 12 de diciembre de 1901 la letra S a través del océano Atlántico. Radio y telecomunicaciones En 1893 Tesla dio un nuevo paso por el progreso de la ciencia describiendo con detalle los principios de la emisión de radio. pero el servicio encargado de examinar las solicitudes de patentes en Estados Unidos rechazará esta inverosímil negativa. De hecho parece ser que escuchó ondas de radio emitidas por las estrellas. a continuación. mientras que la Sra. Su aparato es idéntico al que Tesla describió en 1893. Marconi llega a Londres con un receptor TSF. solicitada en 1897 y homologada el 20 de marzo de 1900. Fueron numerosos los que. conocidas como ondas cósmicas. Hoy en día la escucha de las estrellas es una práctica corriente. utiliza el personaje de Tesla convirtiéndolo en inventor de un ingenioso aparato eléctrico utilizado por uno de los ilusionistas que protagonizan la historia. En realidad. En la adaptación (cuyo título original es The Prestige). " Me sorprende la repugnancia que manifiestan las personas que trabajan en el campo de los ordenadores en reconocer la prioridad de Tesla. Será preciso esperar a 1920 para que los astrónomos aíslen de nuevo estas señales. Brattain.de que Tesla les había precedido. En Saint-Louis.

igual al invento que el científico usaba para investigar fenómenos electromagnéticos. Parecida a esta arma. También aparecen servoarmaduras con el nombre de "Armadura Tesla" que potencian el uso de este tipo de armas. que hace referencia justamente a su afición por los hoteles. el viejo Effing cuenta cómo le marcó el ingenio de Nikola Tesla y menciona la enemistad con Edison. California. aplicándose desde la seguridad en las puertas hasta en la producción de energía local. Ratchet lo usa no sólo para abatir enemigos. un grupo musical llamado Tesla. que también es incluido en otras escenas. algunos títulos de álbumes y canciones y algunos contenidos de canciones de eventos relacionados con el inventor. sino también para accionar diferentes dispositivos. que derivó su nombre. En el videojuego Fallout 3 aparece mencionado su nombre en los libros "Nikola Tesla y tu" los cuales sirven para obtener puntos extra en la habilidad de armas de energía como el rifle de plasma o la pistola laser. En la novela El palacio de la Luna de Paul Auster. así como también potenciar a los Tesla Troopers dotados con armas lanzarrayos. un guante que acaba en unas tenazas. la protagonista debe hacer funcionar el sistema de transmisión de electricidad inalámbrico ideado por Tesla. Al final de esta etapa además aparece un arma Tesla capaz de lanzar rayos de corriente hacia el enemigo a grandes distancias. las cuales lanzan rayos eléctricos. En el videojuego Lara Croft Tomb Raider: Legend. pero en el juego consiste en una torre capaz de emitir un rayo eléctrico muy potente para destruir enemigos. El duo estadounidense The Handsome Family en su disco "The last days of wonder" tiene una canción sobre Tesla: "Tesla's Hotel Room". En 1984 fue formado en Sacramento. En el videojuego Command & Conquer: Red Alert aparece un sistema de defensa llamado "Tesla Coil". su relación con Edison y Westinghouse. En el videojuego Blood 2 aparece un arma llamada Tesla Cannon que dispara rayos eléctricos. a distancia. Meg y Jack White (del grupo White Stripes) comentan de modo icónico los logros de Tesla. las circunstancias de su muerte y sus enormes contribuciones a la ciencia. un curioso experimento fílmico del director Jim Jarmusch. como el de abrir una puerta. También en la actualización "Broken Steel" aparece un arma llamada Tesla Cannon la cual es muy poderosa a pesar de que solo carga una bala por recarga.almacenan electricidad y la liberan en forma de tormentas. Estados Unidos. es la "Garra Tesla" del videojuego Ratchet and Clank. 398 . En el videojuego Silent Hill: Origins un arma especial que se puede desbloquear se llama Tesla Rifle También en el videojuego Return to Castle Wolfenstein en los Laboratorios X se utiliza en gran cantidad tecnología Tesla. En la cinta Café y cigarrillos.

provocando problemas. entre los que estaba el que mencionaba que Nikola Tesla pudo haber descubierto una increíble fuente de energía. En el segundo capítulo de la cuarta temporada de la serie House. de Michael Crichton. como fuentes más baratas de energía o poderosa tecnología que puede ser usada con fines bélicos. si son utilizados con fines destructivos. Los descubrimientos de Tesla a propósito de las ondas electromagnéticas pueden tener repercusiones importantes para la humanidad. libre. donde se enumeran algunos mitos tecnológicos. Inmediatamente de la noticia de la muerte de Nikola Tesla. el FBI entró en su casa y confiscó la mayor parte de los documentos de sus investigaciones y hasta el día de hoy continúan clasificados como "secretos de estado" dando pie a que se produzcan especulaciones acerca de su contenido. el equipo humano dispone de los "generadores Teslas" (similares a los árboles Tesla que almacenan energía y la liberan en forma de rayos). En el videojuego Tremulous (un MMFPS multiplataforma. Veremos cómo estas ondas probablemente son utilizadas por las grandes instituciones gubernamentales para controlar el clima. influir sobre la población y sobre ciertos comportamientos. hecho con el quake 3 engine).Orchestral Manoeuvres in the Dark sacó en 1984 una canción titulada Tesla Girls basada en el inventor. para electrocutar al equipo alien. aparece escrito "Tesla was robbed" (A Tesla le robaron) en la pizarra del aula que utiliza para la selección de los candidatos a formar parte de su nuevo equipo. sobre la ionosfera. • Interferencias en las ondas emitidas por el cerebro. En el cómic "Clockwork girl" (2007) la protagonista se llama Tesia al leer rápido la placa con la máquina con la que fue creada en la que pone "Tesla". La guerra meteorológica: el proyecto HAARP El HAARP es un centro de investigación americano instalado en Alaska. El HAARP está basado en las investigaciones de 399 . y destrucción de los aparatos electrónicos. Dicha inscripción se puede ver varias veces a lo largo del episodio. He aquí algunos de los fenómenos que pueden ser provocados con la utilización de ondas electromagnéticas de muy baja frecuencia: • Influencia sobre el clima. • Perturbación de las conexiones por radio. zumbidos sonoros. Las siglas HAARP significan ” High-frequency Active Auroral Research ” (Investigación de la Aurora Activa de Alta Frecuencia). Aparece mencionado en la novela "El mundo perdido". Teorías y mitos en la actualidad Se dice que antes de su muerte agentes alemanes habían robado algunos documentos de sus investigaciones y el FBI vigilaba de cerca su paradero.

La ionosfera es pues una onda portadora perfecta a partir de la cual se puede alcanzar al cerebro. en razón de su impacto general sobre el medio ambiente. La ionosfera está constituida por partículas ionizadas altamente cargadas de energía. Oficiosamente. y el de Justicia. se pueden distinguir algunas 400 . Pero. antigua y permanente de los militares. Es un proyecto con un coste anual de 30 millones de dólares. En el transcurso del siglo XX. con la tecnología adecuada. Es el lazo entre la esfera electromagnética de la Tierra y las frecuencias de resonancias del cerebro lo que forma la base de las armas estratégicas.Bernard Eastlund. y el Algunas instituciones europeas están inquieras y piden " que se establezca un acuerdo internacional para prohibir a escala mundial cualquier desarrollo y despliegue de armas que podría abrir la puerta a toda forma de manipulación del hombre ". los científicos de este centro de investigación trabajan sobre un emisor de radio para estudiar la ionosfera. el HAARP quiere sacar partido de la ionosfera para convertirla en un arma de energía. la Fuerza Aérea. que podría modificar localmente la ionosfera a fin de neutralizar radares y radios. Es la tecnología ELF (Extremely Low Frequencies). Las investigaciones realizadas durante un siglo por una serie de científicos han puesto en evidencia el hecho que esta "capa energética" que protege a la Tierra podría. La guerra invisible de las ondas La investigación en este terreno es una preocupación importante. en particular en laboratorios americanos y rusos. Oficialmente. Es el inicio de la manipulación del clima. este tipo de emisiones permitiría actuar sobre la formación de fenómenos meteorológicos. Existe un tipo de arma muy interesante: las armas de baja y de muy baja frecuencia. convertirse en un arma estratégica de capital importancia. sin cambiar la frecuencia de emisión. Raython (gigante americano de armamento) Ministerio de Defensa. La frecuencia de resonancia de la ionosfera es casi idéntica a la del cerebro humano. Las armas electromagnéticas son desarrolladas en el marco de inquietantes colaboraciones entre el Ministerio de Defensa. Sin embargo. es un problema de alcance mundial ". Estas formidables armas llevan desarrollándose desde hace varios decenios. Los promotores no escatiman dinero en campañas de relaciones públicas y publicidad para dar seguridad a la opinión pública americana. El proyecto estudia un potente dispositivo para emisiones de altas frecuencias. que el ejército americano presente como inocentes investigaciones sobre la ionosfera. Consideran que " el proyecto HAARP. quien a su vez se inspiró en los trabajos Nikola Tesla. es difícil creer que no se trata de un proyecto con fines miliares cuando se sabe que los verdaderos socios capitalistas son la Marina. según un investigador del Ministerio de Defensa.

Daniel Depris . los problemas de memoria. el ejército americano dirigió secretamente programas de investigación sobre estos efectos. adormecer. • 1987: un tipo de arma radicalmente nuevo. He aquí un inventario: • 1962: la señal de Moscú: las autoridades americanas constataron que el personal de su embajada en Moscú estaba expuesto a niveles elevados de radiación electromagnética. También se ha podido constatar la publicación de un memorando titulado « Adiestramiento biológico del cerebro por radiaciones de baja frecuencia ». cuya señal puede ser pulsada. Confirmaron la realidad de los terribles efectos inducidos por estos campos.utilizaciones de estas ondas. capaz de degradar los sistemas electrónicos o pudiendo ser utilizada en modo antipersonal (informe del Ministerio de Defensa americano). producir adquisiciones de experiencias o borrar las experiencias adquiridas » Efectos de estas ondas sobre el cuerpo humano A principio de los años 60. particularmente a nivel de la glándula tiroides ». es decir. • 1983-1984: los soviéticos querían utilizarlas contra las fuerzas rebeldes afganas. el Profesor Herbert König. transmitir sugestiones. son utilizadas para enfríar los ardores de asociación o de órganos políticos y sindicales considerados demasiado militantes por ciertos dirigentes. que podrían acoplarse con el cuerpo humano de manera que impidiera los movimientos musculares voluntarios y el control de las emociones (y las acciones). problemas cardíacos. • 1989: Boris Yeltsin reconocía que en su tiempo la KGB había estudiado el recurso de las emisiones ELF para matar a distancia por paro de la función cardíaca. redactado para la NASA. y quitarle toda agresividad. da algunas explicaciones: « el componente magnético de las radiaciones […] puede modificar el proceso físicoquímico que rige el metabolismo endocriniano.UU. Se precisaron años para darse cuenta de que los soviéticos buscaban inducir efectos biológicos. físico. la alteración de reflejos. En los años 70. puso de relieve un cierto número de efectos de las frecuencias bajas y muy bajas.: « se puede contemplar el desarrollo de fuentes de energías electromagnéticas. un estado de aturdimiento. 401 . las afecciones cutáneas. De forma general. psicológicos y fisiológicos. es fácil privar de la conciencia de vigilia a todo soldado que ataca. las hemorragias oculares e incluso los cánceres. interferir con la memoria a corto y largo plazo. Una irradiación crónica o continua puede hallarse en el origen de las tendencias depresivas. puesta en forma y dirigida. • 1996: aparición de un artículo del Comité Científico Consejero de la Fuerza Aérea de EE. Ejemplo de utilización de estas armas psicotrónicas en tiempo de guerra El principio de utilización es sencillo: con estas armas.

instalaría la paz en la Tierra porque podría destruir ciudades enteras en todo el mundo. microscópica. Con este tipo de arma. Su famoso «rayo de la muerte». a gran distancia. Las armas de energía dirigida Tesla había escrito su teoría sobre las armas de energía dirigida antes del inicio del siglo veinte. a los que tomaron por soldados. ondas de sonidos ELF. n°97. Se puede asistir a la puesta a punto de un arma capaz de paralizar al enemigo. y perturban completamente el sentido de la orientación de las personas alcanzadas.La revista 2000. de diciembre 93. pensaba. Tesla anunció: « Mi dispositivo proyecta partículas de dimensión relativamente grande o. el primer objetivo es cortar los sistemas electrónicos enemigos. permitiéndonos transmitir sobre una pequeña superficie. cuando millares de soldados iraquíes salieron de sus trincheras rindiéndose? Se rindieron incluso a los periodistas. sino que fueron las armas psicotrónicas de Estados Unidos ». que provocan náuseas. indicaba a propósito de las armas psicotrónicas: « ¿Se acuerdan ustedes de las imágenes de la Guerra del Golfo. Otros artilugios producen ultrasonidos. e instantáneamente. 402 . por el contrario. vómitos. Cada vez más y más expertos militares se han convencido de que no fue el insuficiente reabastecimiento de las tropas de Saddam Hussein lo que provocó esta rendición repentina y masiva. a pesar de que habían enarbolado bandera blanca. una energía trillones de veces superior a la de cualquier otro rayo ». y fueron la presa bienvenida de los cañones de la artillería americana.

para materiales o mezclas poco comunes y para controlar el grado de porosidad o permeabilidad. latón y otros. por ser ésta un material refractario muy abundante en la naturaleza y que. manufactura o producción. La fundición en arena consiste en colar un metal fundido. la densidad. comúnmente metálicas pero también de plástico. en un molde de arena. Un proceso de fabricación. consistente en fundir un material e introducirlo en una cavidad. se calientan en atmósfera controlada (sinterizado) para la obtención de la pieza. también denominado proceso industrial. El proceso tradicional es la fundición en arena. Pulvimetalurgia La pulvimetalurgia o metalurgia de polvos es un proceso de fabricación que. Para la obtención de un determinado producto serán necesarias multitud de operaciones individuales de modo que. mezclada con arcilla. partiendo de polvos finos y tras su compactación para darles una forma determinada (compactado). la resistencia.Proceso de producción de máquinas. dejarlo solidificar y posteriormente romper el molde para extraer la pieza fundida. donde se solidifica. típicamente aleaciones de hierro. puede denominarse proceso tanto al conjunto de operaciones desde la extracción de los recursos naturales necesarios hasta la venta del producto como a las realizadas en un puesto de trabajo 403 . Este proceso es adecuado para la fabricación de grandes series de piezas pequeñas de gran precisión. acero. FUNDICION Se denomina fundición al proceso de fabricación de piezas. el tamaño o la estética. adquiere cohesión y moldeabilidad sin perder la permeabilidad que posibilita evacuar los gases del molde al tiempo que se vierte el metal fundido. llamada molde. bronce. Dichas características pueden ser de naturaleza muy variada tales como la forma. Proceso de fabricación Esquema de bloques general del proceso de producción de poliolefinas. Se realizan en el ámbito de la industria. es el conjunto de operaciones necesarias para modificar las características de las materias primas. dependiendo de la escala de observación.

El Hombre desde sus inicios (entendiendo como Hombre a un ser con capacidad racional). Durante los albores del siglo XX aparecieron máquinas herramientas más grandes y de mayor precisión. durante la era del imperio Romano no se reconoció verdaderamente el valor de la buena utilización de nuevas maquinas y técnicas. Los caminos de Roma. utilizando mano de obra 404 . Así. Hasta que la construcción de caminos no llegó a ser un arte de gran desarrollo. quien haya de trabajar diariamente con máquinas herramienta. Para ello. Luego los primeros esfuerzos de construcción de diques de tierra y zanjas de irrigación. habrá de plantearse cuestiones continuamente y de resolver problemas relativos a la herramienta. Durante el siglo XIX se alcanzó un grado de precisión relativamente alto en tornos. tipos y composiciones de ellas. sierras. ya las armas rústicas eran comunes. ha debido aprender a construir y utilizar artefactos ajenos a él. Una preparación por buena que sea no es suficiente. pasando por subgéneros. pulidoras. y azadones.con una determinada herramienta. La utilización de estas máquinas se extendió a todos los países industrializados. Expondremos en el siguiente informe. máquina- 1. Por citar algunos ejemplos: en la lucha entre pueblos prehistóricos.Historia de las maquinas Reseña histórica de las maquinas. ha tratado de dominar las fuerzas de la naturaleza. los principales conceptos para poder comprender las maquinas básicas y las leyes físicas que las rigen. taladradoras y perforadoras. cepilladoras. a la máquina o al trabajo. exigieron la utilización de herramientas. Estas máquinas especializadas permitían fabricar productos estandarizados con un coste bajo. que todavía se usan fueron construidos con atención esmerada a las condiciones de subsuelo y con una base de grava y arcilla bien apisonada. fresas.. exigen para su racional utilización en la explotación un manejo seguro y profundos conocimientos técnicos. tales como los arados. según afirman investigaciones recientes. partiendo desde definiciones. estudiando otros dispositivos. perfiladoras. y revisando aplicaciones fundamentales del tema. A partir de 1920 estas máquinas se especializaron y entre 1930 y 1950 se desarrollaron máquinas más potentes y rígidas que aprovechaban los nuevos materiales de corte desarrollados en aquel momento. usados para la agricultura. Las máquinas herramienta modernas. compuestas fundamentalmente por piedras y huesos.

Para solucionar este problema. Estas nuevas máquinas se aplican hoy en todos los campos. y todo ámbito de nuestras vidas. a velocidades mayores corresponden fuerzas menores. de los combustibles y del agua. Las máquinas son dispositivos usados para cambiar la magnitud y dirección de aplicación de una fuerza. el hombre viviría aún en estado primitivo y no habría podido alcanzar ninguna forma de progreso. los ingenieros se han dedicado durante las últimas décadas a diseñar máquinas herramientas muy versátiles y precisas. Una máquina simple no tiene fuente productora de energía en si. Sin máquinas. Debido a que todas las máquinas deben superar algún tipo de rozamiento cuando realizan su trabajo. cable. Máquinas: Definición y Referencias Una máquina es cualquier artefacto capaz de aprovechar. el control de las fuerzas del viento. Con estas máquinas complejas. que permiten fabricar de forma barata productos con formas complejas. a igualdad de potencia. a su vez. primer instrumento de accionamiento giratorio alternativo compuesto de un arco y una cuerda. plano inclinado. arquitectura y construcción. es utilizado todavía de forma residual en algunos países 405 . y viceversa. El llamado “arco de violín”. se construye todo tipo de máquinas utilizadas en la ingeniería. la ventaja real de la máquina siempre es menor que la ventaja teórica. Combinando máquinas simples se construyen máquinas complejas. controladas por ordenadores o computadoras. La relación entre la fuerza aplicada y la resistencia ofrecida por la carga contra la que actúa la fuerza se denomina ventaja teórica de la máquina. Sin embargo.sin cualificación especial. Las máquinas también han posibilitado al hombre. Hay que tener en cuenta que una máquina nunca puede desarrollar más trabajo que la energía que recibe y que. o aplicarla de forma más eficaz. La utilidad de una máquina simple (palanca. por lo tanto no puede trabajar a menos que se le provea de ella. dirigir o regular una forma de energía para aumentar la velocidad de producción de trabajo o para transformarla en otra forma energética. rueda) es que permite desplegar una fuerza mayor que la que una persona podría aplicar solamente con sus músculos. carecían de flexibilidad y no podían utilizarse para varios productos ni para variaciones en los estándares de fabricación.

que trabajan con deficientes herramientas de acero al carbono Clases de maquinas Las máquinas se dividen en simples y compuestas. La simples tienen un solo punto de apoyo. accionada por rueda Wilkinson hidráulica. Las compuestas resultan de la combinación de varias simples. Londres). que no llegó a construirse por falta de medios (siglo XV) A finales de la edad media se utilizan máquinas afiladoras que emplean la piedra giratoria abrasiva. Boceto de un torno de pedal y doble pértiga de Leonardo da Vinci. Se consiguió una precisión “del espesor de una moneda de seis peniques en un diámetro de 72 pulgadas” (Science Museum.fabricada en 1775 por encargo de James Watt. Es la máquina más simple que se 406 . La Palanca Mandrinadora de J. berbiquíes y tornos de giro continuo. taladros de arco.

R a resistencia y r a brazo de resistencia. La polea fija tiene un solo movimiento de rotación. según la distribución de sus elementos.conoce y consiste en una barra o cuerpo ríquido que gira sobre un punto de apoyo o fulcro. tiene además del movimiento de rotación otro de traslación. Poleas Una polea es una máquina simple. el arco BB´ el que describe la resistencia. oB al brazo de resistencia. O la potencia multiplicada por su brazo es igual a la resistencia multiplicada por el suyo. p a brazo de potencia. Hay que emplear estas máquinas porque aunque se aumente la 407 Sea P la potencia. Condición de equilibrio Condiciones palanca de equilibrio de la Se aplican las mismas fórmulas de la palanca: F*p = R*r Si llamamos P a potencia. por donde pasa una cuerda.. oA el brazo de potencia y R la resistencia. Tendremos: P/R = oB / oA Potencia es a resistencia como brazo de resistencia es a brazo de potencia. Consta de una rueda que lleva en su borde una canal o hendidura llamada garganta o cajera. El arco AA´ el que describe la potencia. p = 2_radios P = 2_radios = R * 1_radio de donde P/R =1/2 El equilibrio en la polea móvil se cumple cuando la potencia es la mitad de la resistencia. gira alrededor de su eje que es el lugar de apoyo. Las Palancas pueden ser de tres géneros (ver ilustración). la resistencia de ésta la potencia de la tercera y así sucesivamente. Una polea móvil . Hay dos clases de poleas: fijas y móviles. Polea Fija. Máquinas Compuestas Las máquinas compuestas son combinaciones de máquinas simples y están asociadas de manera que la resistencia de la primera es la potencia de la segunda.

potencia en máquinas simples. las perfiladoras. Al estar compuestas de varias máquinas simples. polipastos y todas las maquinarias mecánicas actuales que conocemos: relojes. MAQUINAS Y HERRAMIENTAS CONVENCIONALES Entre las máquinas herramientas básicas se encuentran el torno. sujeta una pieza de metal o de madera y la hace girar mientras un útil de corte da forma al objeto. la cepilladora mueve la pieza sobre un útil fijo. Esta máquina utiliza un útil de una sola punta y es lenta. o para taladrar orificios en la pieza. o para cortar acanaladuras. Empleando útiles especiales un torno puede utilizarse también para obtener superficies lisas. éstas perderían su eficacia al ser grandes y pesadas. engranajes. para obtener piezas con partes cilíndricas o cónicas. volviendo a la posición original para realizar el mismo recorrido tras un breve desplazamiento lateral. etc. Al igual que la perfiladora. Después de cada vaivén. la máquina giratoria más común y más antigua. donde el útil se mueve sobre una pieza fija. la pieza se mueve lateralmente para utilizar otra parte de la herramienta. Siendo n el número de máquinas compuestas Entre las máquinas compuestasde ruedas dentadas. Por esta razón no se suele utilizar en las líneas de producción. la cepilladora permite hacer cortes verticales. También puede utilizar varios útiles a la vez para hacer 408 Torno El famoso torno. pulidoras. las cepilladoras y las fresadoras. horizontales o diagonales. Además se perdería una gran cantidad de trabajo. pero sí en fábricas de herramientas y troqueles o en talleres que fabrican series pequeñas y que requieren mayor flexibilidad. El útil puede moverse . Al contrario que en las perfiladoras. sierras y diferentes tipos de máquinas para la deformación del metal. porque depende de los recorridos que se efectúen hacia adelante y hacia atrás. la condición de equilibrio en una máquina compuesta resultará de multiplicar la conidición general de equilibrio de una máquina simple o el número de ellas que forman la compuesta: paralela o perpendicularmente a la dirección de giro. El útil se desliza sobre una pieza fija y efectúa un primer recorrido para cortar salientes. palancas y poleas están: grúas. CEPILLADORA Esta es la mayor de las máquinas herramientas de vaivén. como las producidas por una fresadora. PERFILADORA La perfiladora se utiliza para obtener superficies lisas. Hay además máquinas taladradoras y perforadoras.

suturas quirúrgicas o rodamientos de rodillos 409 TALADRADORAS PERFORADORAS Y Las máquinas taladradoras y perforadoras se utilizan para abrir orificios. girar o desplazar la pieza para poder afinarla hasta lograr el tamaño. Entre las . La muela va montada en un eje movido por un motor. desde taladradoras portátiles a radiales. horizontal y vertical. Las rectificadoras sin puntos eliminan la necesidad de taladrar los extremos de la pieza.varios cortes simultáneos. La perforación implica el aumento de la anchura de un orificio ya taladrado. las interiores y las de superficie. el modo de sujeción y la estructura de la máquina. Las rectificadoras suelen clasificarse según la forma de la pieza a afinar. que la hace girar a unos 30 metros/segundo. para modificarlos o para adaptarlos a una medida o para rectificar o esmerilar un orificio a fin de conseguir una medida precisa o una superficie lisa. Las fresadoras son las máquinas herramientas más versátiles. máquinas automáticas o máquinas de perforación de gran longitud. las rectificadoras sin puntos. máquinas perforadoras se encuentran las perforadoras de calibre y las fresas de perforación horizontal y vertical. Esto se hace con un útil de corte giratorio con una sola punta. FRESADORA En las fresadoras. El soporte puede avanzar en tres direcciones: longitudinal. forma y acabado deseados. Los cuatro tipos de rectificadoras de precisión son las rectificadoras de puntos. Los distintos tipos de útiles de corte permiten obtener ángulos. colocado en una barra y dirigido contra una pieza fija. La pieza se sujeta a un soporte que controla el avance de la pieza contra el útil de corte. RECTIFICADORAS Las rectificadoras son máquinas herramientas equipadas con muelas abrasivas de precisión y sistemas adecuados para sujetar. En estas máquinas la pieza se sujeta sobre una cuchilla de apoyo y una rueda reguladora. que también controla la rotación de la pieza. Las piezas rectificadas entre los puntos van desde minúsculos manguitos de válvula hasta laminadoras siderúrgicas con diámetros superiores a 1. En algunos casos también puede girar. lo que permite sujetar la pieza entre dos puntos y hacerla girar. Permiten obtener superficies curvadas con un alto grado de precisión y un acabado excelente. Hay taladradoras de distintos tamaños y funciones. la pieza entra en contacto con un dispositivo circular que cuenta con varios puntos de corte. Las rectificadoras de puntos o exteriores se usan con piezas cilíndricas taladradas por su centro en cada extremo.5 m y pesos de casi 100 toneladas. pasando por taladradoras de varios cabezales. engranajes o muescas. ranuras. colocar. Se utilizan para afinar objetos como bolas de bolos.

PULIDORA El pulido es la eliminación de metal con un disco abrasivo giratorio que trabaja como una fresadora de corte. limitando el calor generado y la energía necesaria para realizar el corte. El disco está compuesto por un gran número de granos de material abrasivo conglomerado. La muela se hace descender sobre la pieza mientras el banco se desplaza con un movimiento alternativo o gira lentamente. Las sierras suelen tener un banco o marco. La refrigeración alarga la vida de los útiles y ayuda a fijar el tamaño de la pieza terminada.2% de carbono). 410 . el carburo de tungsteno y los diamantes. Dado que sólo se elimina una parte pequeña del material con cada pasada del disco. Las rectificadoras de superficie se emplean para superficies planas. los aceros de corte rápido (aleaciones de hierro con volframio. SIERRAS Las sierras mecánicas más utilizadas pueden clasificarse en tres categorías. Los fluidos para corte son de tres tipos: soluciones acuosas. aceites químicamente inactivos y fluidos sintéticos. por lo que pueden tratarse de esta forma materiales frágiles que no pueden procesarse con otros dispositivos convencionales. cromo. Útiles y fluidos para el corte Dado que los procesos de corte implican tensiones y fricciones locales y un considerable desprendimiento de calor. Las rectificadoras interiores se emplean para el acabado de los diámetros interiores de engranajes. entre 15. La lubricación reduce la fricción. un mecanismo de avance y una hoja de corte. las pulidoras requieren una regulación muy precisa. En muchas operaciones de corte se utilizan fluidos para refrigerar y lubricar. circulares o de banda.cónicos. Con este proceso se consiguen superficies muy suaves y precisas. vanadio o carbono). según el tipo de movimiento que se utiliza para realizar el corte: de vaivén. La pieza se coloca en un banco plano y se mantiene en su sitio mediante electroimanes o dispositivos de fijación. La pieza va rotando despacio mientras la muela permanece fija. como los aceros al carbono (que contienen un 1 o 1.000 revoluciones por minuto. guías de rodamientos y piezas similares. La presión del disco sobre la pieza se selecciona con mucha exactitud. un tornillo para sujetar la pieza. tenaces y resistentes al desgaste a altas temperaturas. Las muelas abrasivas son pequeñas y giran a velocidades muy elevadas. También tienen estas propiedades los materiales cerámicos y el óxido de aluminio. los materiales empleados en los útiles de corte deben ser duros.000 y 200. en que cada grano actúa como un útil de corte minúsculo. Hay materiales que cumplen estos requisitos en mayor o menor grado.

Como no hay ninguna acción mecánica. ultrasónicas y de haz de electrones. Las prensas cuentan con troqueles y punzones que permiten deformar. las de descarga eléctrica y las electroquímicas. perforar y cizallar las piezas. para vaporizar el material que se desea eliminar. otros métodos. MÁQUINAS HERRAMIENTAS CONVENCIONALES NO Descarga eléctrica La mecanización por descarga eléctrica. Se crea una celda electrolítica en un electrólito. pueden realizarse operaciones delicadas con piezas frágiles. utiliza la energía eléctrica para eliminar material de la pieza sin necesidad de tocarla. sin producir viruta. conocida también como erosión por chispa. una fuente de energía y un mecanismo que mueve el pistón en paralelo o en ángulo recto con respecto a la bancada. También puede perforar metales refractarios y cerámicos y piezas muy finas sin abarquillarlas. También se usan para dar forma y grabar materiales muy delgados que se utilizan para fabricar componentes electrónicos como los microprocesadores. El arco de plasma se utiliza para cortar materiales difíciles de seccionar con Electroquímica Este tipo de mecanización emplea también la energía eléctrica para eliminar material. Se aplica una corriente de alta frecuencia entre la punta del útil y la pieza. un pistón. Otra aplicación es la fabricación de alambres muy finos. las de rayo láser. Entre las máquinas herramientas no convencionales se encuentran las máquinas de arco de plasma. o sea.Prensas Las prensas dan forma a las piezas sin eliminar material. Estas máquinas pueden producir piezas a gran velocidad porque el tiempo que requiere cada proceso es sólo el tiempo de desplazamiento del pistón. como el acero inoxidable y las aleaciones de aluminio. Este método es muy adecuado para hacer orificios con gran exactitud. Este método produce formas que no pueden conseguirse con procesos de mecanizado convencionales. Láser La mecanización por rayo láser se consigue dirigiendo con mucha precisión un rayo láser. haciendo que salten chispas que vaporizan puntos pequeños de la pieza. Arco de plasma La mecanización con arco de plasma utiliza un chorro de gas a alta temperatura y gran velocidad para fundir y eliminar el material. Estas máquinas fueron desarrolladas para dar forma a aleaciones de gran dureza utilizadas en la industria pesada y en aplicaciones aerospaciales. 411 . Una prensa consta de un marco que sostiene una bancada fija.

la intervención de los humanos en el desarrollo de las maquinas y la impresión que estas generan en la vida del mismo humano. estos mecanismos toman ejemplo de los elementos naturales que permiten la recreación de dichos sucesos. pero ya es hora de incorporarle una 412 . La pieza debe ser de un material conductor. desde el punto de vista sentimental los lasos de afecto que nos unen con ciertas entidades van más allá de las limitaciones físicas e incluso mentales. la investigación. un pensamiento que evalúa el hombre y transforma en versiones físicas. sólo el Hombre se comprometió a un razonamiento ético. solamente hay ideas con posibilidades mínimas. nuevo campo de investigación Hasta hoy. Desde un punto de vista pragmático todo estimulo físico y mental puede ser construido con las herramientas adecuadas. Con la mecanización electroquímica son posibles muchas operaciones como grabar.. La tendencia en desarrollo y tecnologías es construir maquinas que no necesiten de la participación del hombre para realizar sus trabajos y otras que actúen a libre albedrio y no respondan a una serie de programación ya establecida. perforar y fresar.utilizando el útil como cátodo y la pieza como ánodo y se aplica una corriente de alta intensidad pero de bajo voltaje para disolver el metal y eliminarlo. Cuando las investigaciones de nuevas tecnologías encuentran métodos más y más sofisticados surgen complejos mecanismos que simulan movimientos y análisis preestablecidos. así es como se desarrollan las mas avanzadas innovaciones tecnológicas. su propósito la ayuda prestada al hombre incluso mayor que la del mismo hombre. el trabajo. pero limites no existen. Cada una de las maquinas es una concepción de ideas ¿Cómo llegaría hacer sí…? Es una idea. La estimulación a los descubrimientos es la apertura de nuevos mercados con millones de clientes potenciales. un ejemplo son las articulaciones de la anatomía humana o los cálculos probabilísticos que realiza un ordenador para tomar una decisión. La Ética para las máquinas. marcar. etc. lo que contextualizamos como alma o esencia divina por ser de un grado indeterminado de conocimiento tiene suficientes inconsistencias para trabajar durante tiempos indefinidos. que algún día pueden ser tomadas en serio. En que influyen las maquinas en la humanidad En la actualidad nos encontramos rodeados de un sin número de sistemas tecnológicos que avanzan a pasos agigantados y no es raro que la ciencia ficción en las películas muestren cada uno de los sueños tecnológicos que quisiéramos alcanzar. La realidad es que la búsqueda de una maquina humanoide capas de tener existencia propia solo podemos asimilarlo dentro de los parámetros de la ciencia ficción. Un concepto es muy claro: desde que se inventaron las maquinas el hombre las hizo con una intención específica que es hacer más fácil la vida.

computadoras y robots. ¿Donde está la relación entre uno y otro podría preguntarse usted? Pues la relación existe y es Petróleo A finales del siglo XIV y primeras décadas del siglo XX el petróleo se convirtió en el “oro negro del mundo” por dos razones: la primera por sus mejores condiciones como combustible ya que desplazó al carbón como principal energético en el mundo.dimensión ética a algunas máquinas complejas. el petróleo se encuentra mayormente en los países subdesarrollados. de él se obtienen la mayor parte de los productos que son procesados y convertidos en bienes del consumo. Pero las máquinas son mucho más complejas y las hay de todo tipo. y la segunda porque su mayor importancia radica en su alta demanda de exportación. como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones.Cuando hablamos de máquinas se nos vienen a la cabeza miles de pensamientos a los cuales relacionamos con máquinas de café. Se trata de un nuevo campo de estudio que considera a las máquinas. dentro de estas divisiones tenemos el rubro de las máquinas simples. máquinas industriales. A palabra maquina puede definir tanto a un simple utensilio de cocina. Por eso el petróleo es 413 . como a un diseño industrial de última generación. Tipos de maquinas Las máquinas simples: Cuales son y que características tienen . las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos. A diferencia del carbón. etc. Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad. esto les otorga a estos países un poder invalorable “La producción de la materia prima más importante del mundo”. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. los empresarios y los gobernantes. máquinas de musculación. ya que es uno de los principales productos que movilizan a toda la industria en general. Por Sergio Moriello. dentro del mundo de las máquinas encontramos divisiones que se dan a partir de aplicaciones.

la demanda de dicho combustible. entre sus capítulos se describirá “¿Qué es el petróleo?.). de 414 . perfora un pozo de 21 metros de 1 profundidad en Titusville (Pennsylvania. El petróleo. En el siglo III los chinos excavaron pozos y lo aprovecharon como iluminante.inegi. Pero en realidad ¿Qué es el petróleo?. de diámetro y de 100 a 700 m.UU. la primera explotación moderna se concreta en 1854 cuando DRAKE.aspx?tema=E se busca por cateos basados en el estudio geológico de los terreno.2010. verdoso o negro. EE. se cree que se formo por la descomposición de materia animal y vegetal en los estratos superiores de la corteza terrestre. y había sido descubierto hace ya miles de años.el producto más indispensable para la dinámica económica de la industria en todo el mundo. ¿Qué es el petróleo? Es un líquido oleoso. más ligero que el agua. a continuación se presenta una breve descripción. como también las amenazas a la sociedad como lo son la contaminación y los conflictos políticos (guerras). y se extrae perforando pozos de 30 a 50 cm. auxiliado por un herrero.org. “La palabra petróleo viene del latín petra (piedra) y óleo (aceite)”. Esta ponencia tratará la tesis del petróleo en México. las investigaciones históricas han comprobado que el petróleo. Sin embargo. Economía. el petróleo se presenta en la naturaleza en los tres estados de la materia: El sólido (bit umen natural) • • el líquido (cr udo) y el gaseoso (gas natural) • INEGI. los tipos de petróleo. sus usos y formas de consumo. se asentaron los ladrillos de la torre de Babel y se calafateó el arca de Noé.mx/economia/ petroleo/quees. las principales potencias en producción del petróleo. (vi: 15 de mayo de 2010) http://cuentame. inflamable. de color oscuro. asfalto derivado del petróleo. en latín) fue conocido desde la remota antigüedad. compuesto de diversos hidrocarburos.1 Como hemos dicho antes el petróleo es la fuente de energía más importante del mundo. o aceite mineral (petrae = piedra y oleum = aceite. también se resumirá la historia del petróleo en México. Los egipcios lo utilizaron en embalsamamientos por lo menos desde el 7 000 a. Con betún. C. Cuéntame de México.

en las regiones árticas. o permanece en su estrato y hay que extraerlo con bombas. los hielos. en aguas de una profundidad de hasta varios cientos de metros. que lleva en su extremo superior un conjunto de válvulas y conexiones denominado Árbol de Navidad.profundidad. el viento y. La torre sirve para suspender y hacer girar el tubo de perforación. Estos equipos de perforación se instalan. depende del lugar en el que se encuentre el yacimiento del petróleo es la tecnología que se utiliza. el petróleo brota a gran altura debido a la presión subterránea. y resiste a las olas. IX. llamada tubería. ahora nos interesa tratar el que utilizan las plataformas marinas el cual es nombrado “perforación submarina” y es el siguiente: Perforación submarina Otro método para aumentar la producción de los campos petrolíferos es la construcción y empleo de equipos de perforación sobre el mar (ha llevado a la explotación de más petróleo).5 cm de diámetro. ya que los hay marítimos y terrestres. pp. en cuyo extremo va situada la broca. que mantiene al pozo bajo control. 1977. Control de surgencia Se comienza por bajar hasta cerca del fondo una cañería de 5 a 7.2 ¿Cómo se produce? Se dice que la extracción del petróleo es fácil aunque costosa. 2924-2925. Luis Rosales Camacho. La plataforma puede ser flotante o descansar sobre pilotes anclados en el fondo marino. La fuerza necesaria para penetrar en el suelo procede del propio peso del tubo de perforación. y el procedimiento que se hace para poder extraer el petróleo del subsuelo depende de donde se encuentre el yacimiento. a medida que ésta va penetrando en la corteza terrestre se van añadiendo tramos adicionales de tubo a la cadena de perforación. o bien mana con poca fuerza. . manejan y 2 mantienen en una plataforma situada lejos de la costa. En México se encuentran 193 plataformas marinas. 415 GRAN DICCIONARIO ENCICLOPÉDICO ILUSTRADI DE SELECCIONE DEL READER´S DIGEST.

4. Por lo general se efectúa el bombeo simultáneo de una serie de pozos vecinos. Es la más efectiva. Bombo hidráulico. que se transmite a éste y lo impulsa en su ascenso. inyectando petróleo a presión que regresa a la superficie bombeado. y bombeo centrífugo. Tres son las causas que pueden originar la surgencia natural. ubicadas cerca del fondo del pozo y accionadas por motores eléctricos controlados desde la superficie. Es la menos efectiva de las tres. el gas disuelto en el petróleo se desprende y al expandirse lo hace surgir. con bombas centrífugas de varias etapas. 3. La presión del agua subyacente. Cuando no existe gas libre y el agua no tiene presión suficiente o tampoco existe.La surgencia del petróleo por la tubería. Bombeo mecánico con bombas aspirantes de profundidad. gas o aire. 4. accionadas por gatos de bombeo. 416 . conectando sus gatos de bombeo mediante largas varillas de acero. a un excéntrico que se hace girar en una estación central. 2. lo obliga a subir. se logra por métodos naturales o artificiales: Natural 1. al disminuir la presión por la perforación del pozo. La presión del gas libre que cubre al petróleo. Puede lograrse métodos: por dos 3. que al transmitirse al petróleo. 2. Inyección a presión de agua. Artificial 1.

Separación del gas Se efectúa en una batería de tanques.29 de septiembre. por simple reposo el gas se separa espontáneamente.)3 Es el recurso natural más importante en nuestro país. vagones tanques. porque satisface la demanda de energéticos y de petroquímicos básicos y contribuye al desarrollo industrial de nuestro país.2005. etc. *Decantación en tanques de almacenamiento . seguido con una decantación posterior. 3 Extracción del petróleo.textoscientificos. térmicos o eléctricos (que son los más efectivos para desalinizar y deshidratar). *Lavado con agua de la emulsión. en los cuales. *Unas vez purificado. evitando la agitación de la mezcla de agua salada y petróleo. *Calentado. (vi: 15 de mayo de 2010) http://www.com/textos cientificos 417 . El petróleo tal como surge. para disminuir la viscosidad de los petróleos densos. *Métodos químicos. Destrucción de la emulsión agua salada-Petróleo Es uno de los problemas de difícil resolución que afronta la industria petrolífera. a las destilerías.Purificación. sin separarlo antes del gas y el agua salada que lo acompañan. no puede procesarse industrialmente. se lo envía a tanques de almacenaje y de ellos. Se trata de resolverlo en distintas formas: *Se previene la formación de emulsiones. en las operaciones de surgencia. Petróleo . *Centrifugado de la emulsión. por oleoductos u otros medios de transporte (buques cisternas.

Ya a mediados del siglo XIX se convirtió en una de las principales fuentes de energía del mundo actual como ya lo hemos mencionado antes. lubricantes. después. Tabasco fue el primer lugar nacional en producción de crudo y gas natural. Desde hace muchos siglos se usaba para cubrir paredes o cascos de embarcaciones. Sin embargo. colorante. principalmente en los países industriales donde Estados unidos ya era un adversario importante. Historia del Petróleo en México. INEGI. con lo que se recupera hasta 30% del contenido. pegamento o con fines medicinales. se inyecta aire para poder sacar hasta un 45% adicional.México cuenta con 193 plataformas marinas equipadas con brocas para perforar el subsuelo hasta llegar al yacimiento. La civilización moderna sería inconcebible son los incontables productos que de él se derivan: combustibles.aspx?tema=E 418 . En 2005. Economía. cauchos sintéticos. El auge del petróleo se inicio con la profundización de las sociedades industriales ya que el uso de maquinarias y automóviles que funcionan con base en este combustible es cada vez mayor. y a veces para lámparas pero su utilización más importante ha sido fenómeno reciente. por lo cual estaba en busca de mas campos petroleros y México estaba abierto a las inversiones. también como colorante. Cuéntame de México.mx/economia/ petroleo/dondeesta. Usos del Petróleo. productos sintéticos innumerables. Al abrir un pozo se instalan los ductos y el hidrocarburo se extrae aprovechando la propia presión del yacimiento. El petróleo es y seguirá siendo por un gran tiempo un recurso estratégico de gran influencia e importancia para las economías nacionales. plásticos de infinitas aplicaciones. El crudo remanente permanece en el pozo. pues con las técnicas disponibles es muy costoso extraerlo.org. Para efectos del caso mexicano los primeros intentos de exploración industrial de las chapopoteras son de 1863. pero sólo veinte años más tarde se le tomo realmente enserio ya que la demanda del combustible venia en aumento.2010. Los usos del petróleo se trasladan a miles de años atrás.inegi. (vi: 15 de mayo de 2010) http://cuentame. el mayor porcentaje de producción tiene lugar en las aguas 4 territoriales. paralelo al perfeccionamiento de los motores de 4 gasolina. nuestros antepasados lo recogían de las chapopoteras y lo utilizaban en sus ceremonias a manera de incienso. es desde la época prehispánica. En el caso de México se puede decir que su primer uso aunque puede ser casual. drogas.

El primero. lo cual con el tiempo provoco muchos descontentos y abusos que terminaron con la promulgación de la expropiación petrolera en 1938 que le dio un gran cambio al desarrollo del país. Pero que lamentablemente ha llegado a su fin ya que a partir de 30 años para acá la visión ha sido totalmente otra. Los primeros permisos fueron concedidos a empresas inglesas y estadounidenses que contaba con el capital y la experiencia en este negocio. los obreros petroleros decidieron 419 .A partir de estas fechas se puede abordar el tema de la industria petrolera controlada por las grandes transnacionales sin ninguna restricción. impulsando fuertemente la industria petrolera y orientándola hacia las necesidades del país. defraudando al gobierno y desarrollando la industria de acuerdo a sus intereses. La industria petrolera como muchas otras de la época estaba bajo el dominio de las grandes transnacionales que si claro beneficiaban el desarrollo del país pero de acuerdo a sus intereses y que con el tiempo provoca un desarrollo dependiente. trabajar bajo su estandarte político que era la constitución de 1917 En México. el gobierno les ofreció todas las facilidades. A continuación se presentan los tres grandes momentos de la Historia del Petróleo en México que se han presentado en el último siglo en cuestión de petróleo y así poder hacer una comparación con las nuevas políticas implementadas en épocas recientes. En segundo. queriendo regresar a la doctrina de dejar a todo a las libres fuerzas del mercado haciendo a un lado la constitución y las prioridades del país y tomando más en cuenta los intereses privados e internacionales. lo cual permitió que estas empresas durante este periodo se dedicaran a abusar de sus privilegios. después de casi 20 años en el poder el grupo sonorense estaba lejos de haber cumplido con sus planes políticos y sobre todo. en 1901donde el presidente Porfirio Díaz expide la primera Ley del Petróleo que faculta al Ejecutivo Federal para otorgar permisos a particulares y compañías organizadas para explorar y explotar terrenos de propiedad federal la idea era poder erradicar el uso del carbón ya que iban en aumento su importación.

Desde su campaña electoral el general Cárdenas se mostro a favor de poner en mano de los trabajadores las fuentes de riqueza y los medios de producción. las compañías no obedecieron a tiempo. tras estudiar el asunto. El gobierno del general Cárdenas supo escoger el terreno del enfrentamiento con las compañías extranjeras y tomarlas por sorpresa. que el presidente 5 Meyer Lorenzo México y los Estados en el conflicto petrolero unidos COLMEX México 1972 pp. sino como decisión de firmeza en el gobierno y como señal que no iba a estar sometido a las decisiones de las grandes transnacionales. gracias a su experiencia como jefe militar en la zona petrolera.llevar a cabo una huelga para presionar a los empresarios y poder obtener parte de las grandes ganancias de las empresas o por lo menos mejores condiciones de trabajo. Sin embargo. 306 420 . No planteó la nacionalización como cuestión de beneficios económicos o de derechos laborales. nadie sospechaba hasta la noche de ese día –ni las compañías petroleras ni sus gobiernos– la magnitud y los alcances de la medida expropiatoria. la Suprema Corte de Justicia decidió que el aumento que pedían era justo y ordenó que se les concediera. “Se debe recordar. y de acabar con la explotación del subsuelo por los “usureros capitalistas extranjeros” “Al asumir la presidencia Cárdenas contaba con gran conocimiento de primera mano de ciertos aspectos del problema petrolero. por lo cual el presidente Cárdenas decidió expropiarlas. había resentido la actitud de las empresas hacia sus trabajadores y autoridades locales desde su punto de vista las petroleras se habían comportado como si México fuera tierra de conquista” 5 La nacionalización del petróleo fue decidida el 9 de marzo de 1938.

Petroleó: manda en México. Petroleó: manda en México. el suelo y el subsuelo de este territorio. 2 febrero 2008 421 . Nos hacen ver que es lo mejor cuando en la realidad los resultados no son los mejores es algo ilógico que se sigan empeñando en continuar con esta visión donde se regresa a la época porfirista donde la doctrina dominante era el utilitarismo y el libre mercado. No era una argucia legal para tener el apoyo del movimiento obrero. que de antemano estaba asegurado. sección Quien opinión. Durante 1970-1985.Cárdenas decretó la nacionalización cuando las empresas petroleras se negaron a acatar un laudo de la Suprema Corte de Justicia de la Nación sobre el contrato colectivo con sus trabajadores. se da el desarrollo de 6 la industria petrolera bajo una nueva visión y con nuevos objetivos poniendo en primer orden el interés nacional dejando a un lado la dependencia con los capitales extranjeros y dando lugar al mayor auge en la historia. 2 febrero 2008 Gily Adolfo la jornada diario. o si los poderes del gobierno de la República elegido y apoyado por su 6 pueblo. Y por último. el contexto internacional. si un grupo de empresas extranjeras subsidiarias de sus gobiernos. quién decide sobre los cielos. sección Quien opinión. las crisis y las malas políticas económicas son el detonador de la nueva época en la que nos encontramos. Fue utilizar lo que las empresas creían un incidente jurídico menor para plantear una cuestión de fondo: quién manda. hasta el inicio de la época neoliberal se tenía la capacidad suficiente para cubrir las necesidades. que prestos salieron en defensa de ellas.” Después de esta importante decisión se puede decir. las importaciones eran mínimas. finales de los años setentas se da un punto de inflexión donde todo lo que se venía logrando se modifica rotundamente.7 7 Gily Adolfo la jornada diario.

Irak. Argentina. si no para satisfacer la demanda interna por lo menos para disminuir las exportaciones y fortalecer el mercado interno9 Potencias en el mercado del Petróleo. que se utiliza para la generación de energía. gasolinas y petroquímicos en el mejor de los casos las cifras son muy cercanas. testimonios y propuestas. Venezuela. Pero ahora existe una gran competencia en este sector del comercio. petrolíferos. Perú. Irán. En Iberoamérica seguían a Venezuela. habiendo un combustible más barato y que en México se desperdicia el 8 FTAV. Hace algunos años se creía que los principales productores mundiales de petróleo eran Estados Unidos. UACM. México 2006 pp.. testimonios y propuestas. 142-151 422 . Chile y Bolivia. UACM. ya que se disputa en ser una potencia en la producción del 9 En México en los últimos años el valor de las exportaciones de petróleo crudo es inferior al de las importaciones de gas 8 Torrea Ocampo José Felipe PEMEX mitos. en orden de producción. Arabia Saudita. cuando en realidad es el combustible más caro y que la producción de México no satisface la demanda. Trinidad y Tobago. Koweit. URRSS. México. México 2006 pp. de las mayores a nivel mundial pero “el petróleo crudo sólo sirve para refinarlo prácticamente no tiene otro uso “ El cambio en la política que nos ha llevado a una situación de dependencia que está basada en bastantes mentiras creadas y difundidas desde el gobierno que busca aparentar el peor de los panoramas para la industria petrolera cuando en realidad si tiene muchas deficiencias pero la mayoría son sabidas por propio gobierno. 57.Como se puede ver si la producción de petróleo es enorme. natural. Un ejemplo que ilustra lo ilógico y contradictorio de las políticas implementadas es el caso del gas natural. Torrea Ocampo José Felipe PEMEX mitos. Brasil. realidades. Colombia. Todo esto debido a un plan para ir debilitando a Pemex ya que en los últimos años se ha ido debilitando la producción nacional por la importación de productos que bien se podrían producir en las refinerías mexicanas. realidades.

Angola es el segundo productor de petróleo en África subsahariana detrás de Nigeria. Las exportaciones petroleras angoleñas crecieron en un asombroso 400% entre el 2002 (cuando terminaron los 27 años de guerra civil) y el 2006. Sucede que se le ha prestado poca atención a la creciente importancia en la producción de hidrocarburos de los países del África subsahariana y de las ex repúblicas soviéticas de Asia Central en los últimos años. es el segundo mayor proveedor de petróleo de China detrás de Arabia Saudita. Estados Unidos reabrió su consulado en Guinea Ecuatorial. Sin embargo. Guinea Ecuatorial. Además. Al estar leyendo acerca del petróleo me encontré con una noticia que se me hizo muy interesante ya que describe como han ido cambiando las estadísticas sobre quien está más arriba o debajo de la lista. Guinea Ecuatorial no es un país en el que el argentino medio piense al nombrar productores de hidrocarburos. no se queda atrás y es el tercer productor subsahariano. la única ex colonia española en la región. para asuntos africanos.UU. Los ingresos por exportaciones petroleras del pequeño país atlántico (es sólo 423 . aunque muchas empresas líderes occidentales también tienen inversiones en el país. El consulado había sido cerrado por el gobierno de Bill Clinton en los ‘90 dadas las violaciones a los derechos humanos cometidas en el país africano.también llamado “oro negro”. Por esta razón considero importante citarla aquí para compartirla con usted. El fundamento principal de la decisión de la Casa Blanca puede encontrarse en una declaración hecha en el 2002 por Walter Kansteiner. A principios de siglo. como tampoco lo son Angola o los asiáticos Turkmenistán o Kazajistán. quien afirmó que "el petróleo africano se está convirtiendo a gran velocidad en un interés estratégico nacional". entonces subsecretario de Estado de EE.

un 1. también africano aunque ubicado en la costa opuesta. donde el aumento en la última década fue del 82% en gas y 113% petróleo.000%. Fue Sudán.994%. Las tasas de crecimiento en la producción de petróleo y gas en los países de Asia Central no han sido tan elevadas.un poco más grande que la provincia de Tucumán) crecieron. pero aún así son altas. Son regiones cuya importancia crece a gran velocidad y que están inmersas en la lucha de poder entre distintos países desarrollados y China por controlar la producción de combustible. con el 7. Destacan sobre todo Kazajistán. la región podría llegar a suministrar hasta el 25% de las importaciones estadounidenses para el 2015. Esta situación se reflejó en muchos medios norteamericanos allá por 2003 cuando Estados Unidos invadió Irak. Hubo un sólo país del mundo. con un crecimiento más pronunciado en el mismo lapso. donde se produce un 280% más de gas y un 185% más de petróleo ahora que hace diez años. Geografía del futuro. Hoy lo sigue siendo. Los países nombrados hasta aquí conforman dos regiones claves geo-políticamente: la costa occidental africana (sobre todo en la región del Golfo de Guinea) y la región de las ex repúblicas soviéticas en el centro asiático. La región del golfo está formada por varios países. el mayor productor petrolero 424 . Los medios llamaban a la región el "Otro Golfo" o el "Nuevo Golfo". en la última década. Fue por entonces que se comenzó a hablar del Golfo de Guinea como una zona importante para los intereses estadounidenses. Según la revista financiera Forbes. en referencia al Golfo Pérsico y la veían como una alternativa viable y necesaria de suministro para las necesidades petroleras y gasíferas estadounidenses. y Turkmenistán.

Santo Tomé. Técnicamente. el Golfo de Guinea cuenta con una ubicación geográfica privilegiada para exportar petróleo y gas a los Estados Unidos. Así como Angola se ha convertido en uno de sus principales proveedores. el África sahariana o en Irán. entre 1996 y 2006 su producción aumentó un 20%. China también se interesa en la región. La clave de estos países se encuentra en Guinea Ecuatorial y en los aportes menores que puedan ofrecer los demás países que sobre-miran el golfo: Togo. China está invirtiendo grandes cantidades en el área. que continuará en el futuro. Al igual que en la península arábica.000 millones de dólares que le hizo a Angola hace un par de años. como el préstamo de 3. China cuenta con la ventaja de no tener que enfrentarse a la clase de dilemas éticos de algunos gobiernos occidentales. rápido y seguro y por eso a Washington le conviene establecer vínculos comerciales. Benin. De hecho. Camerún y Gabón.entre ellos es Nigeria. y está sentando precedentes de lo que se avecina en los próximos años en el terreno del comercio internacional: la puja por dominar las nuevas fuentes de producción energética. varios de los países del Golfo de Guinea son gobernados por dictaduras o 425 . Al encontrarse en línea diagonal a la costa atlántica estadounidense. pero suele ser incluida en los análisis de la región. Entre 1996 y 2006 su demanda total por petróleo creció un 102% (contra un 12% de crecimiento de la demanda estadounidense) y África ofrece la mejor opción para saciar ese aumento. Angola no pertenece al golfo por estar más al sur. El transporte desde allí es sencillo. y a una distancia relativamente corta según estándares transoceánicos. cuya importancia para la industria petrolera es conocida hace tiempo. Sudán también está entre los países desde donde más importa petróleo el país asiático.

autarquías. Al respecto. son altamente corruptos y tienen pésimos antecedentes en el respeto por los derechos humanos. Sudán en el 172 y Uzbekistán en el 175. Un ejemplo contundente lo ofrece Guinea Ecuatorial. Angola y Nigeria se ubican juntos en el lugar 147. respondió que era un secreto de Estado y que no tenía que explicarle a nadie el destino dado a ese dinero. Tanto en Guinea Ecuatorial como en otros de estos paísesa se ha denunciado en más de una oportunidad la desaparición de millones de dólares de ingresos por hidrocarburos de las arcas públicas en los últimos años. donde sólo dos personas han gobernado desde la obtención de la independencia en 1968: Francisco Macías y su sobrino Teodoro Obiang Nguema. quien derrocó y ejecutó a su tío en un golpe de Estado en 1979. Kazajistán está en el 150. todos los partidos opositores se retiraron de la contienda presidencial antes de los comicios. sobre un total de 179 posiciones. Turkmenistán en el 162. ya que convoca a elecciones periódicas. Según el informe de corrupción global 2007 de Transparency International. Africa mía. que se encontraba en campaña en ese momento. Algo parecido a 426 . Por ende. La oposición acusa a Obiang Nguema de ser uno de los dictadores más sangrientos de África. en el 2002 un periodista de la BBC le preguntó a Obiang Ngume por qué desaparecía tanto dinero. Guinea Ecuatorial en el 168. Aunque legalmente Obiang Nguema es un presidente democrático. Lo mismo puede decirse de las naciones del Centro de Asia. El presidente. comerciar con los países del "otro golfo" puede llegar a plantear un problema moral (al menos de la boca para afuera) para Estados Unidos y los demás países desarrollados de Occidente. no siempre tiene oposición: en el 2002.

Como las de la mayoría de los productores asiáticos de hidrocarburos. La posibilidad de que negocien con Irán es resistida desde Washington. Gurbanguly Berdymukhammedov. 427 . ninguno de los dos países querría hacer negocios con Rusia. por otro está Rusia y por otro Irán. Ambos países tienen pocas salidas porque de un lado está Afganistán. las instituciones políticas kazakas no son de lo más firmes: Nazarbayev preside el país desde la caída de la URSS en 1991 y forma parte de los escalones más altos del gobierno desde 1979. la construcción de un gasoducto a Rusia. Las relaciones energéticas entre la UE y Rusia son tensas desde hace tiempo. y llegar desde ahí a Europa. varios de los países centro-asiáticos tienen complicaciones al momento de exportar. cuando se convirtió en secretario del comité central del Partido Comunista. Les queda la costosa opción de atravesar el Caspio para salir a través de la región del Caúcaso. sobre todo Turkmenistán y Uzbekistán (el mayor productor de gas de las repúblicas ex soviéticas de Asia central). la Unión Europea había intentado convencer a Nazarbayev de construir un gasoducto a Turquía.lo que en otros países se llama "fondos reservados". la vecina Turkmenistán es uno de los países donde menos se respetan los derechos humanos. En un mundo ideal. el presidente Nursultan Nazarbayev le asestó un duro golpe a las necesidades estratégicas europeas cuando acordó con el primer ministro ruso Vladimir Putin y el presidente de Turkmenistán. Tiempo antes. vía el Caspio. pero lo hacen. A diferencia de los países costeros africanos. En mayo. que no es una opción viable. Por su parte. Kazajistán es el mayor productor petrolero de la región y exporta mucho a través del Golfo Pérsico (gracias a un acuerdo con Irán) y cada vez más hacia China.

La excepción era Nigeria. Los principales productores africanos subsaharianos solían ofrecer la misma ventaja de no pertenecer a la OPEP y por lo tanto no tener limitada la extracción. Sudán. Lo mismo sucede con Uzbekistán. De ahí el gran interés de las grandes petroleras europeas y estadounidenses por desarrollar campos petrolíferos en la zona norte del Mar Caspio. son observadores en la organización. intervino ante el gobierno de Nazarbayev a principios de octubre cuando el gobierno kazako amenazó con romper un contrato con la empresa italiana Eni. que se está encargando de atraer a los demás países regionales a la organización.según Amnesty International. El contrato no se rompió. el cartel petrolero tan temido por los compradores de petróleo porque limita la producción de sus miembros a fin de regular el precio del barril. al igual que Ecuador. la Argentina deberá importar hidrocarburos 428 . Romano Prodi. a nuestro país no le quedan más de diez años de reservas. pero la situación demostró la preocupación de Prodi por defender los intereses de empresas italianas ante cualquier clase de volatilidad política en Asia central. A pesar de sus relaciones con Rusia. Irán y China. Si esto sucedo. los países centro-asiáticos presentan una gran ventaja para los compradores occidentales de gas y petróleo al no pertenecer a la OPEP. Fue Nigeria quien más negoció para incorpora al cartel a Angola (sucedió en diciembre pasado) y también fue quien invitó a Sudán a unirse. Si las estimaciones actuales sobre las reservas petroleras y gasíferas argentinas son correctas. Eso también explica por qué el primer ministro italiano. En este momento. Puede suponerse que cualquier otro líder de la UE hubiera actuado de forma similar.

De lo que se trata es de apoderarse del control del petróleo del mundo. pero si a algunos estados de E.y entonces Angola.2010.ar/comun/nota. Petróleo. Que el caso no es el de nuestro país. en realidad Estados Unidos era ya un país rico en petróleo.com.revistanoticias. y como es un recurso natural NO RENOVABLE. que hace años que empezó Rodrigo Tichard. ahora en la actualidad los países luchan por ser el líder en producción de petróleo ya que es muy caro comprarlo y aun más refinarlo. con grandes reservas dentro de su territorio o bajo su control. Turkmenistán y la zona del Golfo de Guinea pasarán a ser nombres importantes porque estarán entre quienes determinen el valor internacional del combustible. para así evitar que otros países rivales como China o Rusia puedan beneficiarse de los recursos de petróleo de Oriente Medio y que puedan alcanzar un desarrollo mayor que Estados Unidos.10 Amenazas a la sociedad. y todo por no contar con la tecnología suficiente para hacerlo por nosotros mismos y no depender de otros países. ahora en nuestro país ha sido víctima de derrames en el Golfo de México a causa de la explosión de una de las plataformas de Estados Unidos. se ha mencionada que es el peor desastre ecológico ocurrido. REVISTA ELCTRÓNICA “Noticias de la Semana”.php? art=954&ed=1614 429 . Como lo dice la cita anterior. México sólo es productor de petróleo crudo. (vi: 16 de mayo de 2010) http://www. hoy en día nuclear. es decir.. Me he topado con artículos que tratan sobre la Guerra de Estados unidos-Irak en los cuales menciona que esa guerra es sólo una estrategia geo-política para que nuestro país vecino tenga un control energético en el mundo. entre Irán y Rusia. y realmente no necesitan de recursos energéticos ajenos. pero existe uno aun peor al que estamos expuestos todos los países: “La Guerra”. puedes creer que nuestro país exporta petróleo crudo y después lo vuelve a comprar importado. Ya es hora de ir conociéndolos. esto además de ser un peligro para nuestra sociedad es un desastre ecológico que aún del todo no ha llegado a afectar a nuestro país. 10 El tema del petróleo ahora desafía algunas amenazas a la sociedad. y refinado a un precio mucho más alto. Las nuevas Potencias. El problema final es la tradicional alianza. Como podemos notar la contaminación es una de los desastres que puede causar el petróleo. teniendo colonias en donde se produzca y refine serían potencias en producción y a demás no tendrían que comprar y florecerían como un país independiente. Kazajistán.U.. Cuando Estados Unidos ataque Irán la Tercera Guerra Mundial. ya que no cuenta con la tecnología suficiente como para refinarlo.

la inteligencia artificial y la ingeniería de control. la electrónica. “Actualmente ante la amenaza de privatizar Pemex en todo o en parte. En general creo que los datos presentados aunque muy básico. son claros que la época a partir de la 11 expropiación es la mejor época no sólo para el crecimiento en infraestructura inversión y demás en la industria petrolera sino también en es en este periodo donde se da el mejor desarrollo de la sociedad en su conjunto en todos sus ámbitos. Se ocupa del diseño. Conclusiones. los autómatas programables y las máquinas de estados. la verdad son una serie de incongruencias que son una ofensa para el pueblo. La robótica combina diversas disciplinas como son: la mecánica. Otras áreas importantes en robótica son el álgebra. si no dejaría de ser capital–. y no se diga de la falta de interés para que aquí se produzcan los productos con mayor valor agregado y no se tengan que importar. manufactura y aplicaciones de los robots. que en tanto capital no puede por definición responder al interés de la nación sino al suyo propio.en el Mar Caspio. Robótica La robótica es la ciencia y la tecnología de los robots. México vive una etapa de trascendencia. donde se tiene que tomar medidas al respecto ya que desde la época neoliberal los resultados no son nada optimistas ya que el modelo por si sólo es desventajoso pero lo peor es que se acrecienta con las políticas económicas de nuestros gobernantes No se puede vivir con incongruencias tan grandes como el régimen impositivo que no fue abordado pero que es el mayor freno para el desarrollo de la industria petrolera. los fundamentos de la disputa deben plantearse sobre el mismo terreno: quién manda en México”11. Pero pareciera que esa disputa ya no es disputa por que desde años atrás hay un ganador y son las trasnacionales como en el Porfiriato. 430 . con capital extranjero o nacional pero siempre capital privado –es decir. Y no en el sentido de que todo debe ser controlado por el gobierno sino que debe haber áreas como lo es el petróleo que son estratégicas que deben ser controladas por alguien que busque el beneficio general y no el particular. la informática. llegará también a Occidente.

fue traducida al inglés como robot.El término robot se popularizó con el éxito de la obra RUR (Robots Universales Rossum). 3. Her ón de Alex 431 . la palabra checa robota. por su inacción. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos._ Historia de la robótica La historia de la robótica ha estado unida a la construcción de "artefactos". escrita por Karel Capek en 1920. Un robot no debe dañar a un ser humano o. 2. Tabla Histórica F e c h a Import ancia No mb re del rob ot Inve ntor S ig lo I a . En la traducción al inglés de dicha obra. el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos. excepto si estas órdenes entran en conflicto con la Primera Ley. dejar que un ser humano sufra daño. y a n t e s Descri pcion es de más de 100 máqui nas y autóm atas. hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley. 2. El término robótica es acuñado por Isaac Asimov. el ajedrecista automático. que significa trabajos forzados. Un robot debe proteger su propia existencia. Filó n de Biza ncio. Un robot debe obedecer las órdenes que le son dadas por un ser humano. C . El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su automóvil mediante telegrafía sin hilo. Asimov creó también las Tres Leyes de la Robótica: 1. definiendo a la ciencia que estudia a los robots. o simplemente aliviando de las labores caseras. haciéndose con el poder. incluy endo un artefa Au ton om a Ctes ibius de Alex andr ia. que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo.

dispar an flecha Ju gu ete s Ka rak uri Hisa shig e Tan aka 432 . una máqui na de vapor. agitar sus alas y excret ar. y otro s c. 1 4 9 5 Diseñ o de un robot huma noide Ca bal ler o me cá nic o Leo nard o da Vinc i 1 7 3 8 Pato mecá nico capaz de comer . un órgan o de viento . en Pneu matic a y Auto mata de Herón de Alexa ndria rob oti za do s andr ia. una máqui na opera da media nte una mone da.cto con fuego. Di ge sti ng Du ck Jacq ues de Vau cans on 1 2 0 6 Prime r robot huma noide progr amabl e Ba rco co n cu atr o mú sic os AlJaza ri 1 8 0 0 s Jugue tes mecá nicos japon eses que sirven té.

basad a en una patent e de Devol 6 Un im ate Geo rge Dev ol 1 9 4 8 Exhibi ción de un robot Els ie y El Willi am Gre y 1 9 6 1 Se instal a el primer Un im ate Geo rge Dev 433 . apare ce en R.R . Ro ss um 's Un ive rsa l Ro bot s con comp ortami ento biológ ico simpl e5 me r Walt er Kare l Čap ek 1 9 3 0 s Se exhib e un robot huma noide en la World' s Fairs entre los años 1939 y 1940 Ele ktr o Wes ting hou se Elec tric Cor pora tion 1 9 5 6 Prime r robot comer cial.s y pintan . de la comp añía Unim ation funda da por Georg e Devol y Josep h Engel berge r.U. 1 9 2 1 Apare ce el primer autóm ata de ficción llama do "robot ".

el estudioso chino Su Song levantó una torre de reloj en 1088 con figuras mecánicas que daban las campanadas de las horas. diseñó y construyó una serie de máquinas automatizadas. autómatas musicales que funcionaban con agua. el matemático griego Arquitas de Tarento construyó un ave mecánica que funcionaba con vapor y al que llamó "La paloma". C. entre los que había útiles de cocina. y en 1206 los primeros robots humanoides programables. Por su parte. y describió máquinas accionadas por presión de aire. un inventor musulmán de la dinastía Artuqid.robot indust rial ol 1 9 6 3 Prime r robot "pallet izing"7 Pal leti zer Fuji Yus oki Kog yo 0 1 9 7 3 Prime r robot con seis ejes electr omec ánico s capaz de despl azars e de forma bíped a e intera ctuar con las perso nas O or Co.) creó numerosos dispositivos automáticos que los usuarios podían modificar. un produ cto de Unim ation PU M A Vict or Sch ein man 2 0 0 Robot Huma noide AS IM Hon da Mot . Ltd Fa mu lus KUK A Rob ot Gro up Los primeros autómatas En el siglo IV antes de Cristo. También el ingeniero Herón de Alejandría (10-70 d. vapor y agua. Al Jazarií (1136–1206). Las máquinas tenían el aspecto de cuatro 434 1 9 7 5 Brazo manip ulador progr amabl e univer sal.

Aibo de Sony. desde la generalización del uso de la tecnología en procesos de producción con la Revolución industrial se intentó la construcción de dispositivos automáticos que ayudasen o sustituyesen al hombre. Desarrollo moderno El artesano japonés Hisashige Tanaka (1799–1881). Robots equipados con una sola rueda fueron utilizados para llevar a cabo investigaciones sobre conducta. En el sentido común de un autómata. navegación y planeo de ruta. creó una serie de juguetes mecánicos extremadamente complejos. algunos de los cuales servían té. conocido como el "Edison japonés". Sin embargo. Entre ellos destacaron los Jaquemarts. el mayor robot en el mundo tendría que ser el Maeslantkering. una barrera para tormentas del Plan Delta en los Países Bajos construida en los años 1990. Cuando estuvieron listos para intentar nuevamente con los robots caminantes.músicos a bordo de un bote en un lago.8 Por otra parte. Sólo recientemente se han hecho progresos hacia los robots con locomoción bípeda. Podían cambiarse los ritmos y patrones que tocaba el tamborilero moviendo las clavijas. esta estructura no satisface los requerimientos de movilidad o generalidad. Su mecanismo tenía un tambor programable con clavijas que chocaban con pequeñas palancas que accionaban instrumentos de percusión. disparaban flechas retiradas de un carcaj e incluso trazaban un kanji (caracter japonés). Los robots con forma de perro o 435 . muñecos de dos o más posiciones que golpean campanas accionados por mecanismos de relojería china y japonesa. En una exposición de Caixa Galicia en Ponferrada Con más de 4 piernas. la cual se cierra automáticamente cuando es necesario. entreteniendo a los invitados en las fiestas reales. En 2002 Honda y Sony. Estos robots imitaban insectos y artrópodos en funciones y forma. comenzaron con pequeños hexápodos y otros tipos de robots de múltiples patas. comenzaron a vender comercialmente robots humanoides como “mascotas”. Como se ha hecho notar anteriormente. la tendencia se dirige hacia ese tipo de cuerpos que ofrecen gran flexibilidad y han probado adaptabilidad a cualquier ambiente. estos robots son estáticamente estables lo que hace que el trabajar con ellos sea más sencillo.

la gente reacciona de forma positiva ante los robots con los que se encuentra. fue instalado en 1961 para levantar piezas calientes de metal de una máquina de tinte y colocarlas. No obstante.de serpiente se encuentran. las máquinas totalmente autónomas no aparecieron hasta el siglo XX. Los robots domésticos para la limpieza y mantenimiento del hogar son cada vez más comunes en los hogares. especialmente si ése 436 . en una fase de producción muy amplia. pero sí existe un acuerdo general entre los expertos y el público sobre que los robots tienden a hacer parte o todo lo que sigue: moverse. aunque suele aludirse a los segundos con el término de bots. En la práctica. comportamiento imita al de los humanos o a otros animales. el ejemplo más notorio ha sido Aibo de Sony. Aunque las historias sobre ayudantes y acompañantes artificiales. los robots reales siguen siendo limitados. El primer robot programable y dirigido de forma digital. Por lo general. Comparados con sus colegas de ficción. 3. hacer funcionar un brazo mecánico. así como los intentos de crearlos. No hay un consenso sobre qué máquinas pueden ser consideradas robots. esto es por lo general un sistema electromecánico que. sentir y manipular su entorno y mostrar un comportamiento inteligente. existe una cierta ansiedad sobre el impacto económico de la automatización y la amenaza del armamento robótico. ofrece la sensación de tener un propósito propio. el Unimate. tienen una larga historia. La palabra robot puede referirse tanto a mecanismos físicos como a sistemas virtuales de software._ Robot Un robot es una entidad virtual o mecánica artificial. una ansiedad que se ve reflejada en el retrato a menudo perverso y malvado de robots presentes en obras de la cultura popular. sin embargo. por su apariencia o sus movimientos.

Robots inteligentes. La subdivisión de los Robots. Esto permite una toma inteligente de decisiones y el control del proceso en tiempo real. • 3ª Generación. Móviles. son muy diversos y es por tanto difícil establecer una clasificación coherente de los mismos que resista un análisis crítico y riguroso. Son similares a los anteriores._ Clasificación de los robots Según su cronología • Según su arquitectura La arquitectura. es definida por el tipo de configuración general del Robot. Los dispositivos y mecanismos que pueden agruparse bajo la denominación genérica del Robot. 1. Zoomórficos e Híbridos. 4. El modo de hacerlo es a través de un dispositivo mecánico. con base en su arquitectura. Poliarticulados 437 . pero además poseen sensores que envían información a la computadora de control sobre el estado del proceso. Robots de aprendizaje. Androides. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza. El metamorfismo admite diversos niveles.• 4ª Generación. tal como se ha indicado. de reciente aparición. • 2ª Generación. hasta los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. puede ser metamórfica. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador para que realice los movimientos necesarios. • 1ª Generación. Robots con control sensorizado. Son sistemas mecánicos multifuncionales con un sencillo sistema de control. El concepto de metamorfismo. bien manual. desde los más elementales (cambio de herramienta o de efecto terminal). Manipuladores. se hace en los siguientes grupos: Poliarticulados. se ha introducido para incrementar la flexibilidad funcional de un Robot a través del cambio de su configuración por el propio Robot. de secuencia fija o de secuencia variable. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano.

Los experimentados efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos. Zoomórficos 2. basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo. o a través de bandas detectadas fotoeléctricamente.En este grupo están los Robots de muy diversa forma y configuración cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas y con un número limitado de grados de libertad". pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia. Móviles Son Robots con grandes capacidad de desplazamiento. que considerados en sentido no restrictivo podrían incluir también a los androides. En este caso. los Robots industriales. Androides Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemática del ser humano. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. fundamentalmente. Los Robots zoomórficos caminadores 438 . y sobre el que se centra la mayoría de los trabajos. En este grupo se encuentran los manipuladores. • • 3. • 4. constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. y destinados. Actualmente los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica. Uno de los aspectos más complejos de estos Robots. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot. es el de la locomoción bípeda. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo. al estudio y experimentación. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores.

los robots comerciales e industriales son ampliamente utilizados. minería. De igual forma pueden considerarse híbridos algunos Robots formados por la yuxtaposición de un cuerpo formado por un carro móvil y de un brazo semejante al de los Robots industriales. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes. 439 . búsqueda y rescate de personas y localización de minas terrestres.9 Otras aplicaciones incluyen la limpieza de residuos tóxicos. Por ejemplo. y realizan tareas de forma más exacta o más barata que los humanos._ La robótica en la actualidad En la actualidad. peligrosos o tediosos para los humanos. en exploraciones en la Tierra y en el espacio. montaje y embalaje. También se les utiliza en trabajos demasiado sucios. es al mismo tiempo uno de los atributos de los Robots móviles y de los Robots zoomórficos. cirugía. Los robots son muy utilizados en plantas de manufactura. un dispositivo segmentado articulado y con ruedas. piloteando o autónomos. En parecida situación se encuentran algunos Robots antropomorfos y que no pueden clasificarse ni como móviles ni como androides. armamento. capaces de evolucionar en superficies muy accidentadas. 5. Híbridos Estos Robots corresponden a aquellos de difícil clasificación cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas. tal es el caso de los Robots personales. en transporte. investigación en laboratorios y en la producción en masa de bienes industriales o de consumo. • 5. bien sea por conjunción o por yuxtaposición.multípedos son muy numeroso y están siendo experimentados en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos.

muchos robots son diseñados en simuladores mucho antes de construirse y de que interactúen con ambientes físicos reales. que han recibido la aprobación regulatoria en América del Norte. manejadores de líquidos y lectores. Computer Motion e Intuitive Surgical. se han desarrollado ya dos modelos de robot daVinci por esta última.Expo 2005. servicios (por ejemplo. hay modelos trabajando en el sector educativo. Cirugía Pediátrica. En la actualidad. de que el cuidado del hogar para la población de edad avanzada pueda ser desempeñado por robots. Cirugía general. los robots son utilizados para transportar muestras biológicas o químicas entre instrumentos tales como incubadoras. 440 . existen más de 800 robots quirúrgicos daVinci en el mundo. se ha logrado un gran avance en los robots dedicados a la medicina. Un buen ejemplo de esto es el equipo Spiritual Machine. un equipo de 5 robots desarrollado totalmente en un ambiente virtual para jugar al fútbol en la liga mundial de la F.I. Para esas tareas se suele recurrir a robots de tipo artrópodo. con aplicaciones en Urología. Cirugía Torácica. Ginecología.A. en lugar de recepcionistas humanos o vigilancia) y tareas de búsqueda y rescate. Además de los campos mencionados. Aquí. Los robots parecen estar abaratándose y reduciendo su tamaño. con dos compañías en particular. esperanza.R. Otros lugares donde los robots están reemplazando a los humanos son la exploración del fondo oceánico y exploración espacial. una tendencia relacionada con la miniaturización de los componentes electrónicos que se utilizan para controlarlos. Desde la compra de Computer Motion (creador del robot Zeus) por Intuitive Surgical. También la automatización de laboratorios es un área en crecimiento. Además. Nagakute (Aichi) Existe una gran 6. Cirugía Cardíaca y ORL._Aplicaciones: Usos médicos Recientemente. especialmente en Japón. Europa y Asia para que sus robots sean utilizados en procedimientos de cirugía invasiva mínima.

una estatua animada por la magia cabalística. Hefesto (Vulcano para los romanos) creó sirvientes mecánicos inteligentes. no se describe a esas máquinas como "robots" o como "androides". Literatura Ya en 1817. cobró vida. aparece una mujer que parecía una muñeca mecánica. sin olvidar el empleo de sistemas robóticos para la retirada de minas antipersonales. Como se indicaba más arriba. las leyendas de los Inuit describen al Tupilaq (o Tupilak). dios griego de los herreros. por supuesto. ya que la víctima puede detener el ataque del Tupilaq y reprogramarlo con magia para que busque y destruya a su creador. Algunos de estos autómatas ayudan al dios a forjar la armadura de Aquiles. la estatua de Pigmalión. la primera obra en utilizar la palabra robot fue la obra teatral R. se dice que Cadmo sembró dientes de dragón que se convertían en soldados. según la Ilíada Aunque._ Los robots en la ficción Mitología Muchas mitologías antiguas tratan la idea de los humanos artificiales. Destacan también el éxito de las bombas inteligentes y UCAVs en los conflictos armados.Modelos de vuelo En fases iniciales de desarrollo hay robots alados experimentales y otros ejemplos que explotan el biomimetismo. en un cuento de Hoffmann llamado El Coco. y en la obra de Edward S. Por su parte. de Čapek. que un mago puede crear para cazar y asesinar a un enemigo. son en cualquier caso dispositivos mecánicos de apariencia humana.U.(escrita en colaboración con su hermano Josef en 1920. Ellis de 1865 El Hombre de Vapor de las Praderas se expresa la fascinación americana por la industrialización. También el . Se espera que los así llamados nanomotores y cables inteligentes simplifiquen drásticamente el poder de locomoción. escenificada en Nueva York 441 7. otros hechos de oro e incluso mesas que se podían mover por sí mismas. En la mitología clásica. Sin embargo. mientras que la estabilización en vuelo parece haber sido mejorada substancialmente por giroscopios extremadamente pequeños. representada por primera vez en 1921. y Galatea. emplear un Tupilaq para este fin puede ser una espada de doble filo.R. Una leyenda hebrea habla del Golem. Modelos militares Un impulsor muy significativo de este tipo de investigaciones es el desarrollo de equipos de espionaje militar.

Robot y El hombre bicentenario. Más tarde. Yo. El autor más prolífico de historias sobre robots fue Isaac Asimov (1920-1992). los robots poseen una identidad propia. Según el Oxford English Dictionary. y asumió que la palabra ya existía por su analogía con mecánica. Este autor consideró seriamente la serie ideal de instrucciones que debería darse a los robots para reducir el peligro que éstos representaban para los humanos. En televisión.en 1922. o las dos películas basadas en los relatos de Isaac Asimov. El resto de las leyes se modificaron para ajustarse a este añadido. Terminator de James Cameron. en el sentido de que se trata de criaturas que pueden confundirse con humanos. como Inteligencia Artificial de Steven Spielberg. Así llegó a formular sus Tres Leyes de la Robótica. El autor no fue consciente de esto en un principio. aunque parecen felices de servir.U. así como las consecuencias por su tratamiento. La obra comienza en una fábrica que construye personas artificiales llamadas robots. aplicadas del Cine y televisión El tono económico y filosófico iniciado por R. En la serie "Futurama" de Matt Groening. el principio del relato breve ¡Mentiroso! de 1941 contiene el primer uso registrado de la palabra robótica. pero están más cerca del concepto moderno de androide o clon. La edición en inglés se publicó en 1923). que colocó los robots y su interacción con la sociedad en el centro de muchos de sus libros. como ciudadanos.R. Pueden pensar por sí mismos. y las populares Blade Runner (1982) o The Terminator (1984). Asimov añadió la ley de Cero: "Ningún robot causará daño a la humanidad ni permitirá. con su inacción que la humanidad sufra daño". En cuestión está si los robos están siendo explotados. Existen muchas películas sobre robots. así también como Cortocircuito y la versión de Disney: Wall-E. 442 . sería desarrollado más tarde por la película Metrópolis. de batallas de estilo sumo entre robots. existen series muy populares como Robot Wars y Battlebots. hidráulica y otros términos similares que se refieren a ramas conocimiento.

por parte del robot. no es posible aplicar las Tres leyes de la robótica.conflictos que se podrían dar entre estas leyes. 9. Entender y aplicar lo anteriormente expuesto requeriría verdadera inteligencia y consciencia del medio circundante. por otro lado. Actualmente._ Cuestiones éticas Existe la preocupación de que los robots puedan desplazar o competir con los humanos. evaluar las situaciones de riesgo tanto para los humanos como para ellos mismos o resolver los . Las leyes o reglas que pudieran o debieran ser aplicadas a los robots u otros “entes autónomos” en cooperación o competencia con humanos si algún día se logra alcanzar la tecnología suficiente como para hacerlos inteligentes y conscientes de sí mismos. así como un mayor ahorro de recursos. Dell. ha suscitado y mantenido inquietudes entre diversos grupos por su impacto en la tasa de empleos disponibles. han estimulado las investigaciones macroeconómicas de este tipo de competencia. Dicha controversia ha abarcado el 443 8. Sony. han implementado en sus líneas de producción unidades robóticas para desempeñar tareas que por lo general hubiesen desempeñado trabajadores de carne y hueso en épocas anteriores. así como su repercusión directa en las personas desplazadas. algo que a pesar de los grandes avances tecnológicos de la era moderna no se ha alcanzado. notablemente construido por Alessandro Acquisti basándose en un trabajo anterior de John von Neumann. Pero. así como la calidad de los productos ofrecidos. así como de sí mismo. Esto ha causado una agilización en los procesos realizados. como Intel._ El impacto de los robots en el plano laboral Muchas grandes empresas. dado que los robots no tienen capacidad para comprender su significado. General Motors. mejorando notablemente el rendimiento general y las ganancias de la empresa. al disponer de máquinas que pueden desempeñar las funciones de cierta cantidad de empleados a un costo relativamente menor y con un grado mayor de eficiencia.

luego. Especial atención se presta a la retroalimentación y sus conceptos derivados. el 21 de julio de 1984 donde un robot aplastó a un trabajador contra una barra de protección en la que aparentemente fue la primera muerte relacionada con un robot en los EE. un matemático de Iowa.art. la cibernética es igualmente aplicable a los sistemas físicos y sociales. De todas formas se puede establecer. se remontan al año 1994. se centra en funciones de control y comunicación: ambos fenómenos externos e internos del/al sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Las primeras experiencias de lo que luego se llamaría net. llamando la atención de casos como el ocurrido en Jackson. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. en la segunda mitad del siglo XX. La cibernética dio gran impulso a la teoría de la información a mediados de los 60. En esos años aparecen la segunda generación de computadoras (con transistores en 1960) concretándose por entonces los 1° dibujos y gráficos de computadora._ Cibernética La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores.aspecto de la seguridad. la computadora digital sustituyo la analógica en la elaboración de imágenes electrónicas. Tanto en sus orígenes como en su evolución. UU. nacida hacia 1948 e impulsada inicialmente por Norbert Wiener que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general” En 1950. Ben Laposky. y la tercera (con circuitos integrados. así como la necesidad de contar con lineamientos claros de seguridad que garanticen una correcta interacción entre humanos y máquinas. Míchigan. en términos técnicos. que las primeras experiencias donde la tecnología informática puesta al servicio de la comunidad funcionó 444 . es importante aclarar que ya por los 1960 existían algunas antecedentes. Debido a esto se ha llamado la atención sobre la ética en el diseño y construcción de los robots. creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y. Los sistemas complejos afectan y luego se adaptan a su ambiente externo. computer art e infoarte. Historia La cibernética es una ciencia. en 1964) así como los lenguajes de programación. 10.

. Además.como soporte estético trascurren por aquellos años y rompe con la idea de lectura lineal de la obra. a los robots 445 . Etimológicamente "androide" se refiere a los robots humanoides de fisionomía masculina. • En un futuro ya no se ocuparía personal "viejo" y contratarían técnicos jóvenes para el mantenimiento de las máquinas. Ciertas aplicaciones de la cibernética pueden presentar algunas desventajas por ejemplo: La creación de máquinas complejas que reemplacen a los trabajadores provocaría un recorte de personal. Algunas ventajas son: La reducción de las jornadas laborales._ Androide • Androide es la denominación que se le da a un robot antropomorfo que. • 12. la cibernética trata acerca de sistemas de control basados en la retroalimentación. imita algunos aspectos de su conducta de manera autónoma.. los robots y el concepto de cyborg debido al uso que se le ha dado en algunas obras de ciencia ficción. • Un conocimiento mayor de como funcionan los sistemas complejos pudiera llevar a la solución de problemas también complejos como la criminalidad en las grandes ciudades • 11. la cibernética brinda un gran aporte al campo medicinal. • Es una tecnología muy potente pero su gran limitación es encontrar la relación máquinasistema nervioso._ Cibernética y robótica Mucha gente asocia la cibernética con la robótica. pero desde un punto de vista estrictamente científico. ya que para esto se debería conocer el sistema nervioso perfectamente. además de imitar la apariencia humana. Es un término mencionado por primera vez por Alberto Magno en 1270 y popularizado por el autor francés Auguste Villiers en su novela de 1886 L'Ève future. los trabajos complejos o rutinarios pasarían a ser de las máquinas.

no es visto por el público como un verdadero androide.de apariencia femenina se les llama ocasionalmente ginoides. cuando éste presentaba conductas inesperadas. y aceptan por lo tanto con menos problemas la idea que un robot tenga apariencia humana. Bien que dicho monstruo sea fácilmente el más famoso. debido a su extrema popularidad como cliché de la ciencia ficción. fabricada casi siempre por un Androides en la ciencia En la robótica la actitud de los expertos hacia los autómatas humanoides ha vacilado entre el entusiasmo y el escepticismo. El androide siempre ha sido representado como una entidad que imita al ser humano tanto en apariencia. que el reconocido experto en inteligencia artificial Marvin Minsky. En la cultura occidental la criatura humanoide. De hecho es tan notorio este fenómeno. para poder así interactuar más fácilmente con seres humanos. aunque en el lenguaje coloquial el término androide suele usarse para ambos casos. llegó a narrar como en ocasiones llegaba a sentirse incómodo frente a una de sus creaciones. ya se ha demostrado con ejemplos que la 446 . Entusiasmo porque un robot humanoide puede tener enormes ventajas para cierta clase de funciones. En otras culturas las reacciones pueden ser bastante diferentes. Un robot sabio. donde el público no teme la antropomorfización de las máquinas. Androides en la cultura popular Robot ASIMO de Honda. escepticismo debido a que para que una máquina robótica sea útil. Antes incluso de haber visto un verdadero robot en acción. humanoide que se limita a imitar los actos y gestos de un controlador humano. el androide Cog. como en capacidad mental e iniciativa. sino como una simple marioneta animatrónica. Un ejemplo meritorio es la actitud japonesa faz a los androides. principalmente en las obras de ciencia ficción. La actitud de base entre el público frente a los androides varía en función del bagaje cultural que posea dicho público. y el primero de los cuales no es necesariamente el monstruo de Frankenstein de Mary Shelley. la mayoría de las personas asocian la idea de robot con la de androide. es con bastante frecuencia un monstruo que se rebela contra su creador y en ocasiones lo destruye como castigo por su hubris.

forma humana no es necesaria. procesar tales percepciones y actuar en su entorno (proporcionar salidas). 447 . y a veces es incluso un estorbo (respecto a las capacidades actuales de los androides). que es capaz de marchar en dos pies. Existen distintos tipos de conocimiento y medios de representación del conocimiento. aunque ya existen varios ejemplos bastante meritorios en ese sentido._ Inteligencia artificial Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación1 2 3 dedicada al desarrollo de agentes racionales no vivos. De hecho. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje. de robots humanoides que imitan ciertas conductas y capacidades humanas. Un ejemplo conocido en este sentido. es una tarea de una enorme complejidad técnica. es el robot Asimo de Honda. entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas). y entiéndase a la [racionalidad] como la característica que posee una elección de ser correcta. Por lo tanto. La construcción de un robot que imite convincentemente aunque sea una parte ínfima de la libertad de gestos y movimiento humanos. 13. es un problema que en varias instancias está todavía abierto a la investigación y a la mejora. de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina). Para explicar la definición anterior. y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada. de subir y bajar escaleras y de otra serie de proezas de locomoción bípeda. más específicamente. basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.

ingeniería y la milicia. • Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano). planificación automática. • Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN). • Redes bayesianas: Propone soluciones mediante inferencia estadística. • Smart process management: facilita la toma de decisiones • También existen distintos tipos de percepciones y acciones. la habilidad de responder a diagnósticos y a consultas de los consumidores. • Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos). pulsos eléctricos u ópticos en computadoras. y se ha usado en gran variedad de aplicaciones de software. los cinco principales tipos de procesos son: Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos). tanto como por entradas y salidas de bits de un software y su entorno software. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas: Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y aparte que son muy importantes requieren de un buen funcionamiento. • Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles. que determinan el tipo de agente inteligente. De más simples a más complejos. reconocimiento del habla y reconocimiento de patrones. pueden ser obtenidas y producidas. • Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden autoregularse y controlarse para mejorar. Los sistemas de IA actualmente son 448 .También se distinguen varios tipos de procesos válidos para obtener resultados racionales. • parte de la rutina en campos como economía. medicina. • Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones. Varios ejemplos se encuentran en el área de control de sistemas. reconocimiento de escritura. respectivamente por sensores físicos y sensores mecánicos en máquinas. Escuelas de pensamiento La IA se divide en dos escuelas de pensamiento: La inteligencia artificial convencional • La inteligencia computacional • Inteligencia convencional artificial Se conoce también como IA simbólico-deductiva. juegos de estrategia como ajedrez de computador y otros videojuegos.

el cual era capaz de demostrar teoremas matemáticos. • En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido. aun cuando todavía no existía el término. Historia Las ideas más básicas se remontan a los griegos. Wavelets. desarrollan el primer lenguaje de programación orientado a la resolución de problemas. y Ktesibios de Alejandría (250 a. el cual se considera el primer trabajo del campo. También se relaciona con técnicas como los Fractales. Se presenta como una alternativa a la GOFAI ("Good Old-Fashioned Artificial Intelligence"). • En 1956 fue inventado el término inteligencia artificial por John McCarthy. Dentro de la Inteligencia Computacional podemos encontrar técnicas como las Redes Neuronales. Sistemas Inmunes Artificiales o Sistemas difusos. La investigación en Inteligencia Computacional no rechaza los métodos estadísticos. Inteligencia computacional Inteligencia Computacional (IC) centrada en el estudio de mecanismos adaptativos para permitir el comportamiento inteligente de sistemas complejos y cambiantes. C. Marvin Minsky y • 449 . pero muy a menudo aporta una vista complementaria. Teoría del Caos. un regulador del flujo de agua (racional pero sin razonamiento). evolución y Lógica difusa para crear programas que son. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing. • En 1955 Herbert Simon. Shaw. Computación Evolutiva.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales. proponiendo una solución a un determinado problema al igual que lo haría un especialista en la actividad. etc. el IPL11. • En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales. adaptación. en cierta manera. Swarm Intelligence. Aristóteles (384-322 a. tratando de no confiar en algoritmos heurísticos tan habituales en la Inteligencia Artificial más tradicional.) construyó la primera máquina autocontrolada. • En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial. Las Redes Neuronales son una rama de la inteligencia computacional muy relacionada con el aprendizaje automático. Allen Newell y J. La Inteligencia Computacional combina elementos de aprendizaje. a partir de lo cual la ciencia ha pasado por diversas situaciones.complejas. C.C. inteligentes. Un año más tarde desarrollan el LogicTheorist. antes de Cristo.

o scripts. un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación. • En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento. LISP fue el primer lenguaje para procesamiento simbólico. Bobrow desarrolla STUDENT. que asistía a químicos en estructuras químicas complejas euclidianas. uno de los Sistemas Expertos más conocidos. desarrollan el lenguaje de programación LOGO. • En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. aparecen los sistemas expertos. el LISP. Por ejemplo DENDRAL. Danny Bobrow y Wally Feurzeig. • A fines de los 50 y comienzos de la década del 60 Robert K. que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. lo que provocó el abandono casi total de las investigaciones durante quince años. Lindsay desarrolla «Sad Sam». • En 1959 Rosenblatt introduce el Perceptrón. el primer Sistema Experto. A mediados de los años 60. que predicen la probabilidad de una solución bajo un set de condiciones. • En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT). pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general. PIP. etc. • En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA. • 450 . • En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980. PUFF. GPS era un sistema orientado a la resolución de problemas. INTERNIST/CADUCEUS. • En las décadas de 1970 y 1980. que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas. CASNET. • En 1968 Seymour Papert. creció el uso de sistemas expertos. iniciado en 1965 por Buchanan. Su nombre se deriva de LISt Processor. MACSYMA. • En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS).Claude Shannon en la Conferencia de Dartmouth. como MYCIN: R1/XCON. • En 1968 Minsky publica Semantic Information Processing. Feigenbaum y Lederberg. • En 1973 Shank y Abelson desarrollan los guiones. que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques. • Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU. • En 1974 Edward Shortliffe escribe su tesis con MYCIN. ABRL. un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron.

de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas». ¿tendría o podría tener conciencia y emociones? • Suponiendo que podemos hacer robots con una inteligencia comparable a la nuestra. la inteligencia artificial aborda tantas cuestiones confundibles en un nivel fundamental y conceptual que. Por ejemplo: ¿En qué consiste la inteligencia? ¿Cómo la reconoceríamos en un objeto no humano. adjunto a lo científico. muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute. Gran parte de esta ciencia se junta con temas en la filosofía de la mente. es necesario hacer consideraciones desde el punto de vista de la filosofía. posea una inteligencia comparable a la humana? • Aunque una criatura no orgánica pudiera solucionar problemas de la misma manera que un humano. • En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial . • En 1997 Garry Kasparov. • Como anécdota. simultáneamente con el punto de vista de que la mente se reduce al funcionamiento físico. La psicología ofrece herramientas que permiten la investigación de la mente humana. campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue. EXPERT.Algunos permanecen hasta hoy (shells) como EMYCIN. pero hay ciertos temas particulares a la IA.Campus Multidisciplinar en Percepción e Inteligencia 2006. así como un lenguaje científico para expresar 451 . • En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas. si la tuviera? • ¿Qué sustancia y organización se requiere? ¿Es posible que una criatura hecha de metal. ¿debemos hacerlo? • Durante más de 2000 años de tradición en filosofía. han ido surgiendo diversas teorías del razonamiento y del aprendizaje. por ejemplo. computador o cerebro». • En 1988 se establecen los lenguajes Orientados a Objetos. OPSS. • En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales). • En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras. • Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa. Fundamentos y filosofía Como ocurre casi siempre en el caso de una ciencia recién creada.

C. predecir y manipular un mundo que en tamaño y complejidad lo excede con 452 . Nadie podría pronosticar con toda precisión lo que se podría esperar en el futuro. El hombre se ha aplicado a sí mismo el nombre científico de Homo sapiens como una valoración de la trascendencia de nuestras habilidades mentales tanto para nuestra vida cotidiana como para nuestro propio sentido de identidad. matemático árabe del siglo IX. los esfuerzos de la inteligencia artificial están encaminados tanto a la construcción de entidades como a su compresión. con cuyas obras se introdujeron en Europa los números arábigos y el álgebra (de su nombre al-Jwarizmi deriva la palabra algoritmo). que también se ocupan de la inteligencia.» Los filósofos delimitaron las más importantes ideas relacionadas con la inteligencia artificial. de la que se toman las herramientas que permiten que la Inteligencia Artificial sea una realidad. A diferencia de la filosofía y de la psicología. comprender. la lógica y la probabilidad. Otra razón por la cual se estudia la inteligencia artificial es debido a que ha sido posible crear sorprendentes y diversos productos de trascendencia. matemática. es evidente que las computadoras que posean una inteligencia a nivel humano tendrán repercusiones muy importantes en nuestra vida diaria así como en el devenir de la civilización. tenga capacidad de percibir. cuando Platón cita un diálogo en el que Sócrates le pregunta a Eutidemo: «Desearía saber cuál es la característica de la piedad que hace que una acción se pueda considerar como pía. astronomía y diversas ramas de la filosofía. La idea de expresar un cálculo mediante un algoritmo formal se remonta a la época de Jwarizmi. física. Los esfuerzos del campo de la inteligencia artificial se enfocan en lograr la compresión de entidades inteligentes. y así la observe y me sirva de norma para juzgar tus acciones y las de otros. La temática de su obra fue muy diversa: política. El filósofo Hubet Dreyfus (1979) afirma que: Bien podría afirmarse que la historia de la inteligencia artificial comienza en el año 450 a. El problema que aborda la inteligencia artificial es uno de los más complejos: ¿Cómo es posible que un diminuto y lento cerebro. Empezó con el nacimiento de Platón en 428 a. Una de las razones de su estudio es el aprender más de nosotros mismos. y con lo que aprendió de Sócrates.. sea biológico o electrónico. pero para pasar de allí a una ciencia formal era necesario contar con una formalización matemática en tres áreas principales: la computación.. C. así como la ciencia de la computación.las teorías que se van obteniendo. La lingüística ofrece teorías para la estructura y significado del lenguaje..

es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo– qué hacer a continuación [Pinker. la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional. se piensa en máquinas inteligentes sin sentimientos. por 453 El concepto de IA es aún demasiado difuso. el investigador del campo de la inteligencia artificial cuenta con pruebas contundentes de que tal búsqueda es totalmente factible. Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird. «motivaciones». Capaces de tomar decisiones «acertadas». a fin de evitar las torpezas de funcionamiento como. 318]. Así. . por el momento. tomando como base el cerebro y su funcionamiento. 359]. Aunque. Particularmente para los robots móviles. pero a diferencia de la investigación en torno al desplazamiento mayor que la velocidad de la luz o de un dispositivo antigravitatorio. y no su cuerpo. podríamos englobar a esta ciencia como la encargada de imitar una persona. se podría equipar a un robot con dispositivos que controlen su medio interno. existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente. que «obstaculizan» encontrar la mejor solución a un problema dado. sino imitar al cerebro. Contextualizando. podrán actuar de acuerdo con sus «intenciones» [Mazlish. a fin de aumentar la eficacia de los sistemas inteligentes.creces?. y teniendo en cuenta un punto de vista científico. hay que saber que ya existen sistemas inteligentes. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas. en todas sus funciones. de manera tal que se pueda alcanzar cierto razonamiento creando marionetas robóticas. que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté demasiado bajo. 1993. p. Incluso se podría introducir el «dolor» o el «sufrimiento físico». muchos de ellos consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado. 2001. A veces. Al tener «sentimientos» y. p. p. por ejemplo. La inteligencia artificial permite al hombre emular en las máquinas el comportamiento humano. 1995. aplicando la definición de Inteligencia Artificial. sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor. La inteligencia sentimientos artificial y los En esta línea. al menos potencialmente. 481].

al combinar una memoria durable. y autores como Howard Gardner han propuesto que existen inteligencias múltiples. interocepción. En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los sistemas inteligentes.. Críticas Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar por completo a un ser humano. lo racional y lo emocional están de tal manera interrelacionados entre sí. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. que se podría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto– complementarios.. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos. Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos. una asignación de metas o motivación. por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do. especialmente ante problemas complejos y peligrosos. logran un comportamiento en extremo eficiente. etcétera. igual que sucede con los humanos que disponen de propiocepción. o la cantidad de memoria disponible para una operación determinada.ejemplo. por ejemplo en el cambio de dirección y velocidad autónomo de un misil. En síntesis. utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar. introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta. nocicepción. Un sistema de inteligencia artificial debería resolver problemas. for. lo cual le provocaría daños irreparables. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria y los aspectos aprendidos el saber 454 . La retroalimentación en sistemas está particularmente desarrollada en cibernética.

pasando el test de Turing sin siquiera entender lo que hace. Otros experimentos mentales como la Habitación china de John Searle han mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo. Searle considera posible lograr dicho efecto mediante reglas definidas a priori. esta situación no es equivalente a un test de Turing. Un sistema de inteligencia artificial se enfrenta con el mismo problema. Sin embargo. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo. Este obstáculo es debido a la ambigüedad del lenguaje. Si para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente. Esto se debe al problema del consenso entre especialistas en la definición de 455 .resolver un problema matemático mediante el algoritmo adecuado. Un humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver ambigüedades. que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina. los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas. Esto demostraría que la máquina en realidad no está pensando. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas. su sintaxis poco estructurada y los dialectos entre grupos. y apareció ya en los inicios de los primeros sistemas operativos informáticos. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. la polisemia del lenguaje humano. y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. ya que actuar de acuerdo con un programa preestablecido sería suficiente. o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza. Muchas personas consideran que el test de Turing ha sido superado. Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Sin embargo. citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. debe conocer los distintos significados para poder interpretar. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Un humano durante toda su vida aprende el vocabulario de su lengua nativa.

_ Robótica Educativa La 'Robótica Educativa' es un medio de aprendizaje. Zaccagnini Sancho. creación. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. las cuales son construidas con diferentes tipos de materiales y controladas por un sistema computacional. es lograr una adaptación de los alumnos a los procesos productivos actuales. electrónicos y basados en computadoras. ensamble y puesta en funcionamiento de robots. El objetivo de la enseñanza de la Robótica. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales. los que son llamados prototipos o simulaciones. en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. En sus inicios los autómatas eran realizados con materiales fáciles de encontrar. la etiología. Por ejemplo. 14. ya sea con madera. 1994).los conceptos involucrados y en los procedimientos y técnicas a utilizar. Definición Es el conjunto de actividades pedagógicas que apoyan y fortalecen áreas específicas del conocimiento y desarrollan competencias en el alumno. • Smart process management . la psicopatología y cómo proceder ante cierto diagnóstico. cobre o cualquier otro material fácil de moldear. a través de la concepción. en la operación y control de la producción) juega un rol muy 456 Aplicaciones artificial • • de la inteligencia Lingüística computacional Minería de datos (Data Mining) • Industriales. Sin embargo. en psicología se discuten los conceptos. • Médicas • Mundos virtuales • Procesamiento de lenguaje natural (Natural Language Processing) • Robótica • Sistemas de apoyo a la decisión • Videojuegos • Prototipos informáticos • Análisis de sistemas dinámicos. en donde la Automatización (Tecnología que está relacionada con el empleo de sistemas mecánicos. en el cual participan las personas que tienen motivación por el diseño y construcción de creaciones propias (objeto que posee caraceristicas similares a las de la vida humana o animal). Éstas creaciones se dan en primera instancia de forma mental y posteriormente en forma física.

De esta manera se pretende estimular el interés por las ciencias duras y motivar la actividad sana. Promover los experimentos. respetar cada uno su turno para exponer y aprender a trabajar en equipo. se hace en programas especiales como el xLogo (usando en verdad.1 a materiales de desecho que no se ocupan en casa (como cajas de cartón y circuitos en desuso). por ejemplo). Sin embargo la robótica se considera un sistema que va más allá de una aplicación laboral. pueden ser desde piezas de sistemas constructivos como Lego . • Desarrollar mayor movilidad en sus manos. • Desarrollar sus capacidades creativas. Multiplo o Robo-Ed . ya que los movimientos que realizará éste Robot es un acoplamiento entre lo físico y lo lógico. robot en computador. pero no es así. Aquí. Luego. también se usan materiales más de clase como son metales u otros derivados. eliminando y arreglando. Así mismo hacer que el niño logre una organización en grupo. una versión libre de éste). es la gran necesidad de una perfecta relación entre el Software y el Hardware del Robot. • Ser más responsables con sus cosas. las cuales son específicas para realizar pequeñas tareas (como traer objetos o limpiar cosas. Algo que también cabe mencionar en el estudio de la Robótica. al tenerlo en el computador se establece la función que cumplirá éste robot.importante. donde se realiza un pequeño estudio que ve si éste robot es realizable o no en la realidad. Aunque. se procede a utilizar materiales para llevarlo a cabo en la realidad. discusiones que permitan desarrollar habilidades sociales. permitiendo a las personas socializar. donde el equivocarse es parte del aprendizaje y el autodescubrimiento. • Desarrollar sus conocimientos. y se observa en la pantalla el cómo se ve este robot. se utilizan variados materiales. Origen La Robótica Educativa se centra principalmente en la creación de un robot con el único fin de desarrollar de manera mucho más práctica y didáctica las habilidades motoras y cognitivas de quienes los usan. En este punto. porque en la Robótica Educativa se pretende inicialmente crear un 457 . • Desarrollar la habiliadad en grupo. • • Fases Se tiene la idea de que se construye un robot utilizando cables y equipo para hacerlo en la vida real. Objetivos Que sean más ordenados.

Últimamente. 15. La Filosofía de la Ciencia puede 458 . la dificultad de crecimiento de la complejidad de las tareas. Harvey y Husbands de COGS en la Universidad de Sussex introdujeron el término robótica evolutiva en el año 1993. En 1992 y 1993 dos equipos. La Biología y otras ciencias de lo vivo obtienen simulaciones que reproducen fenómenos desde fisiológicos hasta ecológicos. • analizar sistemas epistémico. a menudo simultáneos.Poder observar cada deatalle. al igual que en la aproximación simbólica. Historia con valor La fundación de la RE está relacionada con trabajos en el CNR de Roma en los 90. • Desarrollar el aprendizaje en forma divertida. Habitualmente se evolucionan Redes Neuronales ya que se sigue el referente biológico y simplifica el diseño y la representación en el algoritmo genético. El éxito inicial de esta incipiente investigación lanzó una gran actividad que intentaba delimitar el potencial de esta aproximación al problema. ha orientado la atención al lado teórico de la disciplina abandonando el punto de vista de la ingeniería._ Robótica evolutiva La Robótica Evolutiva (RE) es un área de la Robótica Autónoma en la que se desarrollan los controladores de los robots mediante la evolución al usar Algoritmos Genéticos. Floreano y Mondada en la EPFL da Lausanne y el grupo de COGS informaron de los primeros experimentos de evolución artificial de robots autónomos. El punto de vista de la ingeniería crea controladores de robots para realizar tareas útiles en el mundo real. La Robótica Evolutiva tiene varios objetivos. Cliff. pero la idea inicial de codificar el sistema de control de un robot en un genoma y evolucionarlo data de finales de los años 80.

los robots participantes deben seguir una línea trazada en el suelo en el menor tiempo posible. el laberinto. respectivamente.1 17. o puede incluir. por lo que se toman caminos en los que no se usa la Inteligencia Artificial clásica._ Competiciones de robots Una competición de robótica es un evento donde robots diseñados. Tipos de competición Actualmente existen varias clases de competiciones. con un control centralizado. en los que el controlador del robot puede tener un mapa detallado de su entorno. construidos o programados por diferentes participantes compiten según un conjunto determinado de reglas. sino la Inteligencia Artificial basada en Multiagentes (originaria en el trabajo de Rodney Brooks y su arquitectura de subsunción). la prueba adicional de que el robot debe hallar y sacar del laberinto uno o más objetos ubicados en distintos puntos del mismo. La prueba puede consistir en recorrer un laberinto y encontrar la salida. o en planteamientos conexionistas usando redes neuronales. • Rastreo de línea En esta competición. El laberinto puede estar hecho con paredes delimitadoras de los caminos posibles. • Cowbots 459 . la lucha Sumo y las carreras de bípedos. por ejemplo. siendo las más populares en varios países el rastreo de línea.16. además. Los mecanismos pueden ser absolutos o relativos. o dibujado en el suelo con una línea. • Laberinto Existen distintas variantes de la competición de laberinto. además de llevar a cabo su tarea. Para ello el robot debe percibir su entorno y actuar de forma adecuada. La complejidad del recorrido puede variar. En entornos no estructurados la solución a través de mapa no es viable. La disciplina que usa Algoritmos Genéticos para evolucionar Redes Neuronales se denomina Robótica Evolutiva. usando GPS y odometría. Esto ocurre cuando el robot es móvil y debe tener información de su posición en el mapa interno. los Cowbots. Conforme decrece el grado de estructuración del entorno las tareas se tornan más complejas. La Robótica ha tenido grandes avances en entornos estructurados._ Robótica autónoma La Robótica Autónoma es el área de la Robótica que desarrolla robots capaces de desplazarse y actuar sin intervención humana.

por lo general muy liviano. lo cual a su vez aumenta el rendimiento media en un 2. . Los dos robots deben enfrentarse en la zona de combate hasta que uno de los dos es alcanzado por un proyectil del otro. Este proceso facilita el suministro de oxígeno a los músculos desde la sangre.que ioniza al cuerpo mediante un campo electromagnético de carga negativa. Los robots compiten en una línea recta. que no cause daños a su objetivo. El arma a distancia consiste en un lanzador de algún tipo de proyectil. dos robots se enfrentan en una arena de combate de una medida previamente conocida. en la carrera de bípedos se enfrentan robots cuyo movimiento utiliza dos extremidades inferiores (análogas a las extremidades inferiores de los animales bípedos).dos robots se enfrentan dentro de una zona delimitada. Ambos robots tienen un arma a distancia y un arma para combate cuerpo a cuerpo. los 460 Carrera de bípedos Mientras que en las competencias mencionadas anteriormente los robot tienen una estructura vehicular.FRBB Sumo En este estilo de competición.7%. • Principales existentes • • • • • • • • • competiciones Robocup Hispabot European Land-Robot Trial Alcabot Eurobot FIRST Robolid Cosmobot Competencia Argentina de Sumo UTN . En contacto con la piel. Esta ropa deportiva especializada utiliza el tejido de ultima generación Ionised Energy Fabrics (TM). La ionización es un proceso natural que se produce a causa de una carga positiva o negativa de los átomos. por ejemplo durante las tormentas eléctricas o cerca de las cascadas de agua. y acelera la recuperación muscular. o por su arma de lucha directa. • Ropa deportiva Canterbury of New Zealand está preparada para revolucionar el mercado de ropa técnica deportiva con el lanzamiento de IonX(TM) una gama de prendas de alto rendimiento diseñadas para aumentar la competitividad de los deportistas. siendo el ganador el robot que atraviese el recorrido definido primero.En esta prueba. la idea es que ambos intentan sacarse mutuamente de esta zona.

D. Prof Mike Caine. Consejero Delegado de Canterbury of New Zealand comenta: "En Canterbury nos sentimos orgullosos de las prendas futuristas y tecnológicamente avanzadas que desarrollamos. en la salud. la primera vez que un producto textil ha afectado de forma tan directa y tangible los niveles de rendimiento y recuperación". en la informática. La rápida recuperación permite reanudar antes los periodos de entrenamiento o competición. Joe Middleton. y las prendas IonX(TM) representan." Es la primera vez que un fabricante de ropa deportiva usa semejante nivel de tecnología para el desarrollo de sus productos. La mayor tasa de transferencia de oxígeno desde la sangre a los músculos también beneficia al sistema de energía anaeróbica del cuerpo.. registraron una notable mejora gracias a la aplicación 461 . Ph. Por ejemplo en las carreras organizadas. en los aparatos que se utilizan y en un sin número de cosas más. sino también para el mercado de ropa técnica deportiva en general." La tecnología dri-fit Hemos visto a través del tiempo que la tecnología está presente hoy en todas las áreas. además. al eliminar residuos como el ácido láctico de forma más eficaz. En la cuestión deportiva encontramos la tecnología en la ropa. Director del Instituto de Tecnología Deportiva de la Universidad de Loughborough.. Reino Unido. B. en el calzado. El aumento del rendimiento se produce gracias a mayor flujo de sangre oxigenada por el cuerpo. aunque ya está claro que estas prendas pueden llegar a aportar unos beneficios valiosas para el rendimiento de los atletas durante el entrenamiento y la competición. La gama IonX(TM) no sólo marca un momento clave para Canterbury. en los deportes y en la vida diaria sin duda. lo cual genera más energía en los músculos.Sc. tanto de México como en el resto del mundo.tejidos Ionised Energy Fabrics ofrecen dos ventajas fundamentales: mayor rendimiento durante la actividad y un periodo de recuperación más corto. Esto ayuda a incrementar la potencia media del deportista y a la vez mejorar la velocidad y la fuerza. dijo: "Los resultados preliminares de un estudio realizado por un equipo de Tecnología Deportiva en la Universidad de Loughborough indican que los deportistas que llevan prendas tratadas con IonX demuestran mayor nivel de rendimiento y de fuerza durante periodos cortos y repetidos de máximo esfuerzo. Con el tiempo y más estudios se debe poder comprender cómo maximizar las posibilidades de IonX(TM).

novedades en tecnología. Y por último mencionaremos lo útiles que han resultado ser los monitores de frecuencia cardiaca ya que como su nombre lo dice. salud.. las características del pié y la manera en que pisamos. cultura en torno al atletismo. Hay mucho.de la tecnología computarizada. 462 En efecto. información interesante y lo más nuevo en tecnología. ayudan a conocer la frecuencia cardiaca a diferentes intensidades y esto ayuda a los deportistas a entrenar exactamente como deben. anécdotas. capacidad aeróbica. envío de esa información a teléfono celular y otros servicios. fotografías del corredor al llegar a la meta. Así que ya sabes donde buscar si quieres calidad. proporcionando aislamiento térmico y es muy resistente al viento. etcétera. con aire a fin de reducir el impacto de los pies contra el suelo. capacidad anaeróbica. asuntos médicos propios de los corredores. Estos aparatitos permiten obtener el tiempo y lugar inmediatamente y pueden ser consultados por Internet el mismo día del evento. lugar. ofrece resistencia al agua y extrema facilidad de respiro y Therma. para desarrollar cada una de las seis capacidades físicas: Acondicionamiento aeróbico. Clima-FIT protege contra el viento. ropa y accesorios. generación de diploma para cada participante y disposición de este también vía Internet. técnicas de entrenamiento. La revista Club de Corredores te ofrece en sus secciones además de todos estos temas.FIT mantiene la temperatura del cuerpo. La tecnología llamada Dri-FIT permite el transporte de la humedad del cuerpo (sudor) de la parte interna hacia la parte externa del tejido donde se evapora rápidamente. etc. genera datos como tiempo personal. especialmente en las carreras de ruta. . calendarios de carreras. acondicionamiento anaeróbico. paso por kilómetro. fuerza y flexibilidad. La vestimenta y el calzado son también una parte importante en la vida del deportista ya que con las nuevas tecnologías puedes tener una camiseta seca aunque hayas hecho 3 horas de ejercicio. Realmente el uso del chip es sin duda uno de los inventos más importantes en el deporte y hoy ya está consolidado como un elemento de gran utilidad en toda competencia. etc. los eventos deportivos de este tipo ya no son los mismos que hace siete años cuando se implementó el llamado sistema de "chips" para la medición de los tiempos y resultados en una competencia. En el calzado. resultados de las carreras más importantes. nutrición y cocina especializada para quienes corren. la tecnología nos permite escoger el mas adecuado según nuestras necesidades. mucho más de que aprender y también existen medios por los que podemos empaparnos de estos temas. si eres supinador( que pisas hacia fuera) o pronador (si pisas hacia adentro) hay tenis que están indicados para tu diferente tipo de pisada.

Con lo maximo en el manejo de la humedad "DRI_FIT" pueda ayudarte funcionar mejor. ligera y mas respirable para el cuerpo. Mas importante es que estas telas de alta tecnologia no encojen.shorts. La seleccion correcta de camisa y shorts de futbol abilita a que tu equipo funcione mejor. acrylic y rayon en un uniforme de futbol lo mantendra seco pero las tela de algodon tiene la tendencia de retener agua. Cool Max es ligera y se seca pronto.y calcettas fabricadas por estas telas siempre mantienen al jugador fresco y seco para desplegar su funcion SIEMPRE AGUSTO. En los viejos tiempos todos usaban la tela de algodon.Camisas y Shorts de Futbol Es simple. Nylon: Un tela exceptionalmente fuerte de elastico que retiene un bajo porcental de humedad y es facilmente tratable . Polyester: Una tela muy durable. " Moisture Management" hace que la humedad del cuerpo se desprenda para regular la temperatura del cuerpo. mas atletas se benefician al no sudar. Lamentablemente cuando el algodon se humedese se mantiene humedo. Este tipo de innovaciones hacen que cuerpo re