P. 1
antologia historia

antologia historia

|Views: 2.148|Likes:
Publicado porValeria S. Briseño

More info:

Published by: Valeria S. Briseño on May 23, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

05/26/2013

pdf

text

original

Sections

  • Celulares
  • Comunicación
  • Comunicación Satelital
  • Exploración del Espacio
  • El Fax
  • Fibra Óptica II
  • Fibra Óptica III
  • Fibra Óptica IV
  • Leonardo Da Vinci I
  • Leonardo Da Vinci II
  • Internet
  • Lenguajes de Programación
  • Luz Neón
  • Medios de Transporte
  • MOTOR ELECTRICO
  • Nikola Tesla
  • Proceso de producción de máquinas
  • Petróleo
  • Robótica
  • Ropa deportiva
  • Sistemas Solares
  • Telescopio
  • Televisión
  • Referencias

Unidad Académica de Ingeniería Eléctrica Programa de Ingeniería en Comunicaciones y Electrónica Historia y Desarrollo de la Ciencia y la Tecnología “Recolección de trabajos finales”

Maestro: Manuel Haro Macías

Índice
La aviación……………………………………………………………………2 Celulares…………………………………………………………………….24 Comunicación……………………………………………………………….40 Comunicación satelital……………………………………………………..56 Exploración del espacio…………………………………………………….77 El fax…………………………………………………………………………..96 Fibra Óptica………………………………………………………………….112 Grandescientíficos………………………………………………………….185 Internet…………………………………………………………………….....246 Lenguajes de programación……………………………………………….287 Luz neón……………………………………………………………………..309 Medios de transporte………………………………………………………..326 Métodos científicos del siglo XX…………………………………………...344 Motor eléctrico………………………………………………………………..361 Nikola Tesla…………………………………………………………………..370 Proceso de producción de máquinas……………………………………...390 Petróleo……………………………………………………………………….403 Robótica……………………………………………………………………….420 Ropa deportiva………………………………………………………………..449 Sistemas fotovoltaicos……………………………………………………….467 Telescopio…………………………………………………………………….503 Televisión……………………………………………………………………..525 Referencias…………………………………………………………………...556

2

LA AVIACIÓN EN GENERAL
Se entiende por aviación el desplazamiento a través del aire de aparatos mecánicos más pesados que éste, concretamente aviones y helicópteros. Los dirigibles y los globos aerostáticos no se incluyen en este concepto, por tratarse de ingenios que se mantienen suspendidos en el aire por sus propios medios. Por otra parte, se entiende por aviación también la industria y las organizaciones relacionadas con los aviones y helicópteros. En base al uso de los aviones y helicópteros, la aviación se divide habitualmente en tres grandes grupos: Aviación Aviación Aviación militar general comercial

La aviación general comprende una larga lista de usos, como la aviación deportiva, de negocios, de vigilancia, de rescate, de extinción de fuegos, para la agricultura y otros. La aviación comercial consiste en las compañías aéreas, ya sean éstas grandes o pequeñas, en las compañías dedicadas al transporte aéreo de mercancías, así como en las empresas de aero-taxi. La aviación general y la aviación comercial se agrupan a su vez bajo el término de aviación civil, en contrapartida con la aviación militar. Finalmente, la aviación militar comprende todo lo que está relacionado con los vuelos de ataque y de defensa, de reconocimiento y vigilancia, de transporte, de rescate, y otros similares.

Comienzos de la aviación

El primer vuelo con éxito fue precedido de siglos de sueños, estudio, especulación y experimentación. Existían viejas leyendas con numerosas referencias a la posibilidad de movimiento a través del aire. Ciertos sabios antiguos creían que para volar sería necesario imitar el movimiento de las alas de los pájaros o el empleo de un medio como el humo u otro más ligero que el aire. Hacia el siglo V de nuestra era se diseñó el primer aparato volador: la cometa o papalote.

3

En el siglo XIII el monje inglés Roger Bacon tras años de estudio, llegó a la conclusión de que el aire podría soportar un ingenio de la misma manera que el agua soporta un barco. A comienzos del siglo XVI Leonardo da Vinci analizó el vuelo de los pájaros y anticipó varios diseños que después resultaron realizables. Entre sus importantes contribuciones al desarrollo de la aviación se encuentra el tornillo aéreo o hélice y el paracaídas. Concibió tres tipos diferentes de ingenios más pesados que el aire: el ornitóptero, máquina con alas como las de un pájaro que se podían mover mecánicamente; el helicóptero diseñado para elevarse mediante el giro de un rotor situado en el eje vertical y el planeador en el que el piloto se sujetaba a una estructura rígida a la que iban fijadas las alas diseñadas a imagen de las grandes aves. Leonardo creía que la fuerza muscular del hombre podría permitir el vuelo de sus diseños. La experiencia demostró que eso no era posible. Fue una figura muy importante porque aplicó por primera vez técnicas científicas para desarrollar sus ideas. La aviación en el siglo XIX

El desarrollo práctico de la aviación siguió varios caminos durante el siglo XIX. El ingeniero aeronáutico e inventor británico sir George Cayley, teórico futurista, comprobó sus ideas experimentando con cometas y planeadores capaces de transportar un ser humano. Diseñó un aparato en forma de helicóptero pero propulsado por una hélice en el eje horizontal. Sus méritos le llevaron a ser conocido por sus compatriotas como el padre de la aviación. El científico británico Francis Herbert Wenham utilizó en sus estudios el túnel aerodinámico, sirviéndose del flujo del viento forzado en su interior para analizar el uso y comportamiento de varias alas colocadas una encima de otra. Fue además miembro fundador de la Real Sociedad Aeronáutica de Gran Bretaña. Otros personajes interesantes del mundo aeronáutico de la época fueron el inventor británico John Stringfellow y William Samuel Henson, quienes colaboraron al principio de la década de 1840, para fabricar el prototipo de un avión que pudiera transportar pasajeros. El aparato desarrollado por Stringfellow en 1848 iba propulsado por un motor de vapor y arrastrado por un cable y consiguió despegar aunque no pudo elevarse. El inventor francés Alphonse Penaud fabricó un modelo que se lanzaba con la mano e iba propulsado por bandas de goma retorcidas previamente y consiguió en el año 1871 que volase unos 35 metros. Otro inventor francés, Victor Tatin, diseñó un ingenio propulsado por aire comprimido y equipado con un rudimentario tren de aterrizaje de cuatro ruedas. Lo sujetó a un poste central y las dos hélices consiguieron elevar el aparato en vuelos cortos y de baja altura. El inventor británico nacido en Australia, Lawrence Hargrave, desarrolló un modelo de alas rígidas que iba impulsado por paletas batientes movidas por un motor de aire comprimido. Voló 95 metros en 1891. El astrónomo estadounidense Samuel Pierpont Langley fabricó en 1896 un monoplano en tándem impulsado por un motor de vapor cuyas alas tenían una envergadura de 4,6 metros. El aeroplano
4

hizo varios vuelos, recorriendo entre 900 y 1.200 metros de distancia durante un minuto y medio. Subía en grandes círculos; luego, al pararse el motor, descendía lentamente para posarse en las aguas del río Potomac. Se hicieron numerosos esfuerzos para imitar el vuelo de las aves con experimentos basados en paletas o alas movidas por los músculos humanos, pero nadie lo logró. Merecen citarse el austriaco Jacob Degen entre 1806 y 1813, el belga Vincent DeGroof, que se estrelló y murió en 1874 y el estadounidense R. J. Spaulding quien patentó su idea del vuelo empujado por músculos en 1889. Más éxito tuvieron quienes se dedicaron al estudio de los planeadores y contribuyeron al diseño de las alas, como el francés Jean Marie Le Bris, quien probó un planeador con las alas batientes, el estadounidense John Joseph Montgomery y el renombrado alemán Otto Lilienthal. Lilienthal realizó sus experimentos con cometas y ornitópteros pero los mayores éxitos los obtuvo con sus vuelos en planeador entre l894 y 1896. Por desgracia murió en 1896 al perder el control de su aparato y estrellarse contra el suelo desde 20 metros de altura. Percy S. Pilcher, de Escocia, que también había obtenido grandes éxitos con su planeador, tuvo asimismo un accidente mortal en 1899. El ingeniero estadounidense Octave Chanute consiguió en 1896 pequeños logros con sus planeadores de alas múltiples, pero su contribución más notable a la aviación fue su libro sobre los avances aeronáuticos Progress in Flying Machines (1894). Los numerosos experimentos realizados con cometas durante esta época, consiguieron mejorar de forma notable los conocimientos sobre aerodinámica y estabilidad del vuelo. El inventor estadounidense James Means publicó sus resultados en los Aeronautical Annuals de 1895, 1896 y 1897. Lawrence Hargrave inventó en 1893 la cometa en forma de caja y Alexander Graham Bell desarrolló entre 1895 y 1910 diversas cometas en forma de tetraedro capaces de transportar a un ser humano en un pequeño alojamiento. Entre 1890 y 1901 se realizaron numerosos experimentos con prototipos provistos de motor. El más importante fue el de Langley que en 1901 y 1903 probó e hizo volar sin piloto un aeroplano a un cuarto de escala de su tamaño real. Le llamó Aerodrome y fue la primera aeronave más pesada que el aire provista de un motor de gasolina que consiguió volar. El modelo a escala real se terminó en 1903 y realizó dos pruebas que acabaron en desgraciados accidentes. El aviador alemán Karl Jatho intentó en 1903, también sin éxito, volar un modelo motorizado de tamaño real. Los logros conseguidos a lo largo del siglo XIX aportaron los fundamentos necesarios para el éxito de los hermanos Wright, pero los mayores avances se debieron a los esfuerzos de Chanute, Lilienthal y Langley a partir de 1885. En 1903 aún no se habían conseguido la estabilidad y el control necesarios para un vuelo prolongado, pero los conocimientos aerodinámicos y sobre todo el éxito de los motores de gasolina, que sustituyeron a los más pesados de vapor, permitirían que la aviación evolucionase con rapidez.

5

PRIMERA GUERRA MUNDIAL

Cuando estalló la Primera Guerra Mundial ambos bandos todavía consideraban que el avión sólo era adecuado para reconocimientos, al igual que el globo cautivo: un invento alemán que para 1914 ya era conocido y utilizado por ambos bandos, y que se construía en dos partes: la frontal llena de gas y la posterior de aire, a los lados unos alerones extendidos ayudaban a mantener alzado el extremo posterior, mientras que otra "salchicha hinchada" (el timón) curvada alrededor de la parte inferior del globo ayudaba a estabilizarlo. No obstante, a menudo habían movimientos masivos de tropas no observados por los exploradores aéreos (entre ellas las ofensivas alemanas a Rusia en la primavera de 1915, en Verdún en febrero de 1916 y su última ofensiva en el Frente del Oeste en marzo de 1918). Pero las tropas aliadas también aprendieron pronto a desparramarse y ponerse a cubierto al oír el ruido de los motores de un avión, y los partes negativos de los pilotos alemanes que no habían detectado fuerzas enemigas a menudo despistaban seriamente a los estados mayores; esta amplitud de visión hacía al avión particularmente útil donde la guerra era de movimientos. También se empleó ampliamente a los aviones para controlar la navegación, aunque su eficacia quedara restringida por su limitada capacidad de combustible y, por lo tanto, su autonomía igualmente limitada. Por eso el Royal Flying Corps (RFC), fundado en 1912, tenía alas navales y terrestres y no era un comando independiente. La aviación inglesa y la rusa, al comienzo de la lucha, prácticamente podían considerarse como inexistentes, y algo muy semejante acontecía a la de los belgas y austríacos. Pero pronto, en Rusia, el diseñador Igor Sikorski había producido algunos de los biplanos cuatrimotores más afortunados que surcaban el aire. Su desarrollo como aviones militares, sin embargo, se veía obstaculizado por la falta de motores y repuestos. Así en agosto de 1914 había pocos aviones listos para la acción. En el Frente de Oeste, los alemanes tenían unos 180 y unos 20 hidroaviones útiles. El servicio aéreo de marina británica contaba con 39 aviones, de poco valor militar, mientras que la RFC tenía sólo 48 aviones en Francia en agosto. Los franceses podían presentar 136 aviones de los más diversos tipos. La fuerza conjunta británica y francesa era, pues, de unos 185 aviones frente a los 180 alemanes. Alemania y Francia estaban al principio mejor equipadas que Gran Bretaña, que durante los primeros meses tuvo que depender de las fábricas francesas para sus aviones y repuestos. Pero el desarrollo de la observación aérea fue rápido, tanto en técnicas como en refinamiento. Las comunicaciones entre aire y tierra se hicieron al principio mediante luces de colores diversos, más tarde mediante telegrafía sin hilos. También se aplicó la fotografía, ya en septiembre de 1914. Hacía tiempo que se empleaba la fotografía de posiciones y movimientos enemigos, pero daba visiones distorsionadas, puesto que el vulnerable globo no se podía colocar directamente sobre su objetivo.

6

A medida que avanzaba la guerra el reconocimiento se hizo más profesional y amplio. Los primeros informes de los pilotos sobre concentraciones y movimientos enemigos se ampliaron mediante avances técnicos en la fotografía. A menudo se enviaba aviones de artillería para ayudar a los cañones a precisar el alcance de los blancos enemigos, escuadrillas de largo alcance bombardeaban y fotografiaban las concentraciones y fortificaciones enemigas en retaguardia. Debido a que la Primera Guerra Mundial fue en gran medida una guerra de artillería masiva, esta cooperación con la artillería era de gran importancia. El globo cautivo, lleno de gas, era de gran valor a ese respecto, pero también eran vulnerables a los aviones enemigos, pues estaban anclados al suelo y los dos observadores de la barquilla inferior estaban desarmados. Las armas habituales eran pistolas y fusiles, aunque algunos pilotos ingeniosos llevaban consigo un ladrillo o piedra pesada con la esperanza de tirarla a través del frágil fuselaje de algún avión enemigo. En mayo de 1915, los alemanes consiguieron la supremacía aérea, absoluta aunque temporal, con un nuevo artefacto, el llamado engranaje interruptor. Hasta entonces, aunque muchos aviones llevaban ametralladora, al piloto le había resultado imposible disparar hacia delante -la dirección mas obvia y letal- por miedo de destruir su propia hélice. Se diseñaron numerosos expedientes mecánicos para superar este problema, entonces el holandés Anthony Fokker, que diseñó dos de los aviones alemanes más exitosos –el Fokker y el Albatrosdesarrolló el sincronizador o engranaje interruptor, que permitía disparar a través de la hélice, dejando de disparar temporalmente la ametralladora cuando había una hoja justo delante de la boca. Los alemanes fabricaron grandes cantidades de engranaje interruptor, hacia 1915, con un excelente resultado, ya que los cazas Fokker derribaron muchos aviones británicos y franceses con pocas pérdidas propias. El "azote Fokker" obligó a los aliados a replantear su estrategia en el aire. Pronto ellos también tuvieron engranajes interruptores, pero mientras tanto habían desarrollado un método de patrullas ofensivas por el cual los cazas estaban adscritos a escuadrillas específicas con el objeto de destruir a los contrarios detrás de las líneas enemigas, para dejar sin enemigos potenciales los aviones de reconocimiento. Su dominio no duró mucho, pues los alemanes no sólo
7

produjeron monoplanos más elaborados, sino también el sistema de "circo". Cada una de esas escuadrillas estaba dirigida por un "as" hábil, el más famoso de los cuales era Manfred von Richthofen, el "Barón Rojo", quien elegía personalmente a los pilotos de su escuadrilla. Los alemanes trataron de desmoralizar el frente doméstico británico mediante ataques aéreos contra Londres y la costa oriental, pero los aliados tenían dentro de su radio de acción un blanco importante más significativo: el corazón industrial de Alemania, el Ruhr y el Sarre, donde se fabricaba la mayor parte de la munición. Sin embrago, como observó Basil Liddell Hart: "La inmensa oportunidad de invalidar el suministro de municiones a los ejércitos alemanes se sacrificó en favor de combates aéreos sobre el frente de trincheras". No obstante, aunque tardíamente, los aliados habían llegado a comprender el potencial mortal del arma aérea. Ahora, por primera vez, se podía emplear a los aviones como fuerza separada, autónoma. Así, cuando el frente aliado fue destrozado por la última ofensiva alemana, en marzo de 1918, todas las escuadrillas británicas y francesas que estuvieran libres se combinaron para atacar conjunta y coordinadamente a los alemanes en avance. La fuerza aérea tuvo incluso un papel más importante cuando, en otoño, el ataque final alemán se vio destruido por los contraataques masivos aliados. El daño material fue limitado, pero la producción industrial alemana efectivamente sufrió, y el efecto que tuvo sobre la población civil ya cansada de la guerra redujo más aún la moral. Esta nueva concepción de la guerra (derrotar al enemigo no mediante un ataque frontal sino destruyendo su corazón industrial) se aplicaría con efectos terribles en conflictos futuros.

SEGUNDA GUERRA MUNDIAL

Durante los años treinta las compañías aeronáuticas francesas pusieron en vuelo 150 modelos diferentes de aviones militares, muchos de ellos se destacaron por su feo aspecto, pero a partir de 1935 los diseñadores galos fueron creando cada vez diseños más competitivos. El único caza disponible por la Armée de l´Air (la fuerza aérea francesa) en gran número durante 1939 fue el M.S.406, que cuando se enfrentó al Bf 109E resultó un fracaso por su poca velocidad. Dejando a un lado los magníficos prototipos de ingenieros tales como Vernisse y Galtier en el Arsenal de l´Aéronautique, que no llegaron a los escuadrones, se consideró que el mejor caza francés de la Segunda Guerra Mundial fue el Dewoitine 520. L ´Armée de l´Air de 1939 estaba en condiciones desastrosas. Poseía sólo 1300 aparatos, casi todos tenían cinco o hasta diez años de edad. Los únicos bombarderos franceses modernos y eficaces eran los bimotores Lioré y Oliver LeO 451 y Potez 633. Del primer tipo sólo cinco ejemplares estaban preparados el día que Francia entró en guerra, el 3 de septiembre de 1939. Los motores de que se disponía no eran lo suficientemente potentes para hacer que los cazas franceses demostraran ser adecuados cuando llegaba la prueba final. Se consideró que el mejor caza francés de la Segunda Guerra Mundial fue el
8

Dewoitine 520, pequeño y ligero, lo suficientemente ágil para ser eficaz.

Alemania En 1939 la aviación alemana (Luftwaffe) era la más potente y moderna fuerza aérea del mundo. Disponía en el mismo año de 4800 aparatos de guerra. La producción mensual alemana era de 1100 aviones, casi el doble de la industria británica. Los fundamentales cazas en servicio eran dos: el Messerschmitt 109, monomotor de brillantísimo rendimiento, el más logrado de los aparatos alemanes, y el Messerschmitt 110, después bimotor, un caza pesado específicamente adaptado para la caza nocturna. Con aparatos de tal calidad, y no sólo gracias a su número, la Alemania de Hitler estaba segura de ganar la guerra, aunque casi todos terminarían fracasando, porque la táctica y la estrategia de la guerra aérea cambiarían mucho más de prisa de lo que suponían los altos jefes de la Luftwaffe. Cuando fue posible, la Alemania nazi tuvo más de un tipo de avión para cada misión de combate, así como nuevos diseños preparados para convertirse en la siguiente generación. Si algún caza tuvo un comienzo desalentador éste fue el Messerschmitt Bf 109 (que realizó su primer vuelo en mayo de 1935), que sufrió muchas quejas. Pero en vez de desaparecer de la escena aeronáutica, no sólo fue el caza seleccionado por la Luftwaffe en 1937, sino que virtualmente fue su único caza entre 1937 y 1942. A finales de 1944 no sólo estaba entrando en servicio en grandes cantidades el birreactor Me 262, sino que la Luftwaffe también utilizaba el interceptador Me 163, impulsado por un motor cohete que le daba una gran velocidad de trepada aunque carecía de alcance y autonomía. Ambos eran excelentes máquinas en el aire, aunque sufrieron diversos problemas que restringieron su valor, y llegaron demasiado tarde para evitar la derrota. Gran Bretaña La Royal Air Force, la aviación británica, era todavía débil al comienzo del
9

conflicto, pero el plan de modernización de las escuadrillas (los grupos aéreos) progresaban a ritmo acelerado. En primer línea estaban los bombarderos de altura, todos bimotores, menos veloces que sus correspondientes alemanes, pero bastante más adaptados a los fines estratégicos; aunque, por el momento, eran pocos. Algunos destacamentos de caza tienen ya adjudicado el inmejorable Spitfire, uno de los primeros aviones británicos en adoptar la construcción con los modernos revestimientos resistentes, y dotado de alas elípticas, poco común, que le permitía descender en picado más rápidamente que cualquier otro avión. Sin embargo, la importancia del Spitfire residió en su increíble capacidad de desarrollo, ya que fue capaz de recibir más potencia, más combustible, cañones, bombas y equipo naval, e incluso llevó barriles de cerveza con destino a las tropas en las cabezas de playa de Normandía. Polonia La aviación polaca disponía de unos centenares de aviones de producción nacional. Sin embargo, Polonia fue invadida en cuestión de semanas o días por los ejércitos alemanes y pocos de sus aparatos sobrevivieron. El país dió una imagen muy pobre. A mediados de los años treinta, su fuerza aérea había sido una de las más potentes y mejor entrenadas de Europa, y su despliegue de regimientos de caza equipados con el P.11 hubiera podido hacer frente a cualquier agresor. Sin embargo, en 1939 esos cazas estaban pasados de moda. Hubo realmente un sustituto, el PZL P.50 Jastrzab, pero sólo existía un prototipo cuando los alemanes invadieron Polonia, y fue abatido por la artillería antiaérea al confundirlo con un avión alemán. Australia La Commonwealth de Australia, separada geográficamente de sus enemigos potenciales, gastó sólo simbólicas cantidades en defensa y no tuvo prácticamente capacidad de fabricar aviones de combate hasta justo después del inicio de la Segunda Guerra Mundial. Quizás en parte por la iniciativa del comandante de ala Lawrence Wackett, quien formó la Tugan Aircraft y posteriormente, en 1936, registró la Commonwealth Aircraft Corporation, germinó la semilla de una industria aeronáutica. Unión Soviética Tan en secreto trabajaron los soviéticos que el mundo comenzó a conocer sus aviones a través de las fotografías editadas por los alemanes, durante sus invasiones. Los dos únicos cazas que se pensaba que existían eran el biplano Chato y el monoplano Rata, y estos nombres eran los apodos con los que los bautizaron los pilotos de Franco durante la Guerra Civil española. No fue hasta los años sesenta cuando los estudiosos del potencial aéreo soviético comenzaron a reunir las piezas de la impresionante historia de lo que habían conseguido los burós de diseño (OKB) soviéticos. Los Chato y Rata (en realidad los I-15 e I-16) habían sido los cazas predominantes en 1941, pero también estaban en producción aparatos mucho mejores. Los LaGG, MiG y Yak estaban destinados a
10

ser fabricados en cantidades fantásticas a pesar de la necesidad imperiosa del otoño de 1941 de evacuar la mayoría de las fábricas e instalar nuevas cadenas de montaje más al este. Gradualmente y con un coste horroroso, el control del espacio aéreo en el frente del Este fue pasando a manos soviéticas. En los combates tomaron parte algunos cazas enviados desde EE.UU. y Gran Bretaña, y también algunos pilotos no soviéticos. Estados Unidos Geográficamente alejados de cualquier enemigo potencial, los EE.UU. dedicaron únicamente sumas modestas a los aviones de combate hasta que las guerras en China, España y luego Europa forzaron al país a despertarse, a finales de los años treinta. En esta época, a pesar de tener una industria de primera línea en capacidad técnica, tecnológica y potencial de producción, la nación no se había volcado en el diseño de cazas y no tenía nada similar al Bf 109E o al Spitfire. En noviembre de 1939, cuando la North American Aviation fue requerida por Gran Bretaña para que construyera el Curtiss P-40 para la RAF, el presidente de la compañía, "Dutch" Kindelberger, replicó que la NAA podía diseñar un caza mucho mejor y partiendo de cero. El P-40, aunque mediocre, era algo seguro, mientras que NAA no tenía experiencia en la construcción de cazas. El NA-73 resultante tenía un motor Merlin. Llamado Mustang, el avión resultó ser una obra maestra. Un área donde Estados Unidos demostró su hegemonía fue en la de los aviones navales. El Grumman F4F mantuvo a solas el poderío sobre los océanos hasta que en 1943 hicieron su aparición los formidables F6F y F4U. Gracias a sus potentes motores podían mover sus pesadas células mucho mejor que sus pequeños y ligeros enemigos. Italia En los años treinta Italia se encontraba a la cabeza en la fabricación de motores avanzados de combustión interna, tenía un instinto especial para el diseño aeronáutico y sus pilotos acrobáticos eran excelentes. Durante la guerra el potencial aéreo italiano fue rápidamente considerado por los británicos como un bienvenido descanso en la dura tarea de combatir contra la Alemania nazi. El caza italiano más numeroso era el biplano C.R.42, muy agradable de pilotar pero ampliamente superado por Hurricane y Spitfire. Además de los tipos principales, Italia produjo también numerosos cazas menores, pero hacia 1943 ya había perdido tanto la capacidad como el deseo de lucha y casi ninguno de estos excelentes cazas llegó a ser fabricado en serie. Japón Como en el caso de la Unión Soviética, el desarrollo de aviones de caza en Japón era casi completamente desconocido para los países occidentales en el momento del ataque a Pearl Harbor, en diciembre de 1941. En lugares tales como Londres y Washington creían que los japoneses sólo podían hacer copias inferiores de los aparatos occidentales y que sus fuerzas aéreas y navales estaban equipadas casi
11

Se redujeron las tarifas tanto de pasaje como de carga y en 1945 volvieron a operar todos los servicios comerciales internacionales. estos últimos no representaron solamente una sorpresa grave y desagradable. Fue diseñado por Burt Rutan. Propulsión a chorro. vuelos supersónicos. que lo dotó de líneas muy poco ortodoxas que recuerdan en 12 . Las compañías aéreas dispusieron de aviones más grandes y mas rápidos con adelantos como las cabinas presurizadas. nuevas plantas de potencia y avances electrónicos trajeron el desarrollo de los aviones turborreactores de alta velocidad. sino que en alguna medida fueron considerados como casi invencibles por ambos bandos. pero los pedidos de aviones civiles se incrementaron considerablemente. Los experimentos en el campo del diseño aerodinámico. Exploración del espacio). Al finalizar el año. aviones cohete experimentales. VTOL) y cohetes espaciales (véase Aeroplano. diseñados para vuelos transoceánicos. los fabricantes tenían contratos para construir 40. En diciembre de 1986 el avión ligero experimental Voyager completó con éxito el primer vuelo alrededor del mundo sin escalas y sin repostar. De nuevo las líneas aéreas nacionales e internacionales norteamericanas rompieron las plusmarcas anteriores en todos los tipos de tráfico y consiguieron sustanciales mejoras con respecto a 1941. de los nuevos metales. Se mejoraron los aeropuertos.000 aviones en contraste con la producción máxima de 1941 que fue de 6. El resultado inevitable fue que cuando los pilotos aliados se enfrentaron con los cazas japoneses.844. Las máquinas japonesas tenían una célula muy ligera y escasa protección: se había primado la maniobrabilidad a toda costa. POSGUERRAS En el año 1945 la producción de aeroplanos militares en Estados Unidos se redujo drásticamente. los pronósticos meteorológicos y las ayudas a la navegación fueron más eficientes y aumentó la demanda pública de transporte aéreo de pasaje y carga. que creció a niveles desconocidos hasta entonces gracias a la repentina prosperidad de la posguerra. aviones de despegue corto o vertical (STOL.por completo con biplanos con tren de aterrizaje fijo. La experiencia obtenida en la fabricación de aviones militares durante la guerra fue utilizada en la construcción de aviones civiles nada más terminar las hostilidades.

La Aviación Militar La aviación militar comprende los medios materiales y humanos que conforman la fuerza aérea de una nación. con sede en Montreal (Canadá). Los materiales eran de plástico ligero por lo que su peso al despegar era tan solo de 4. de transporte. así como los sistemas de control y seguimiento de estos. cuando Belerofonte mata a la Pegaso.3 km/h.254 kilómetros en 9 días. unidas en este organismo para resolver sus problemas comunes. se vislumbra ya el concepto del táctica. En la actualidad existen en la mayor parte de las naciones leyes sobre la navegación aérea que junto con otras medidas han llevado a este medio de transporte a convertirse en uno de los más seguros y eficientes. para fines bélicos se remonta a la Quimera montando su caballo alado de vehículos aéreos creados por el combate desde el aire como ventaja 13 . y otros similares. también con sede en Montreal y que agrupa a más de 100 empresas de transporte aéreo. Una vez consumidos. 3 minutos y 44 segundos. Este vuelo estableció una nueva plusmarca de distancia y tiempo en el aire. el delantero para despegar maniobrar y aterrizar y el posterior para el vuelo de crucero. adscrita a la ONU. ya sea para atacar al enemigo como para brindar apoyo a las fuerzas propias. Otra organización que surge a partir de la iniciativa de las compañías aéreas es la Asociación Internacional del Transporte Aéreo (IATA). duplicando el de distancia que permanecía desde 1962 en 20. de rescate. El gran desarrollo de la aviación a escala mundial ha obligado a todos los países a establecer leyes y regulaciones que permitan un eficiente y seguro tráfico aéreo y a firmar convenios y protocolos internacionales como el de Tokio en 1963 o el de La Haya en 1973. y volaron 40. Si bien aquí no hay presencia hombre. La aviación militar abarca también todo lo que está relacionado con los vuelos de ataque y de defensa. El origen del empleo de las aeronaves mitología. pero hasta 1947 no se creó el primer organismo adecuado: la Organización de la Aviación Civil Internacional (OACI). Los pilotos fueron Dick Rutan (hermano de Burt) y Jeanna Yeager. a una velocidad media de 186.420 kilogramos y cargaba 4. su peso al aterrizar era de 840 kilogramos. dentro de un marco táctico y estratégico dado. por lo general de líneas regulares. El concepto de aviación militar implica la utilización de las aeronaves (aviones y helicópteros) con fines bélicos.algunos aspectos a un catamarán. Ya en 1889 se efectuaron varias conferencias para resolver los problemas internacionales originados por la aviación. de reconocimiento y vigilancia.169 kilómetros. El avión iba provisto de dos motores.500 litros de combustible distribuidos en 17 depósitos.

A veces se los denomina "cazas de ataque" o incluso se los incluye en la simplificación del término "cazas". A pesar del enorme potencial de estos aparatos para las labores de observación y reconocimiento en el campo de batalla. pero no se debe confundirlos con los aviones de caza-intercepción o con los cazabombarderos. la primera vez que se utilizan aeronaves para realizar operaciones militares (aunque no de combate) fue en 1794. tanto terrestre como marítima. y los segundos cumplen misiones mixtas de combate aéreo y ataque a superficie. tal como su nombre lo indica. conviene señalar que esto no priva a los aviones de ataque de poder portar y disparar misiles aire-aire como precaución defensiva en caso de ser interceptados por el enemigo. durante la batalla de Fleurus. tuvieron una difícil historia operacional. que si bien 14 . así también como el potente F-15E Strike Eagle. mientras que los cazas de ataque tienen como prioridad el ataque al suelo. Aviones de ataque Avión de ataque a tierra estadounidense A-10 Thunderbolt II. la mayoría de los aviones de ataque son capaces de derribar otras aeronaves llegadas el caso. ya que los primeros sólo combaten contra otras aeronaves. De hecho. cuando el ejército francés emplea globos para observar a las fuerzas austríacas. pero en cambio no son capaces de luchar un "dogfight" (un combate aéreo). son aeronaves específicamente diseñadas para destruir objetivos enemigos en la superficie. pues el mismo Napoleón los desestimó como instrumentos valiosos para la guerra. Podemos encontrar aviones con motor de pistón. tanto en su forma y categoría como en sus misiones y objetivos. Los aviones de ataque. tales como el A-1 Skyarider de apoyo cercano y el IA-58 Pucará de misiones COIN (contrainsurgencia). Lo cierto es que la categoría de aviones de ataque contiene aeronaves muy diversas.Estrictamente. Sin embargo.

Los bombarderos atacan objetivos relativamente grandes (no necesariamente en tamaño pero sí en importancia estratégica) y comúnmente vuelan desde bases lejanas y a gran altura. deben estar equipados con un fuerte blindaje tanto en el fuselaje como en los motores. Por lo tanto. aunque generalmente es considerado un avión de ataque. Se trata de aparatos capaces de ejecutar misiones imposibles para los demás. armas inteligentes que puedan ser colocadas con precisión al primer disparo. los cazas de ataque se ocupan de objetivos más pequeños. y operan desde el mismo teatro de operaciones en misiones a baja cota. A-10 Thunderbolt. Ejemplos de aviones de ataque: Contra-insurgencia o contraguerrilla: IA-58 Pucará. Tampoco se debe confundir a los cazas de ataque con los bombarderos. lo que define a un avión de ataque es que su principal misión (aunque no sea la única) es el ataque a objetivos en superficie.es especialista en misiones de ataque conserva la capacidad de ataque combate aire-aire del modelo F-15C. cómo el A-10 Thunderbolt y el Su-25 Frogfoot. por lo qué técnicamente es un cazabombardero. ya que éstos últimos poseen objetivos y misiones diferentes. es decir. OV-10 Bronco. en cambio. equipos de contramedidas electrónicas para ser menos vulnerables a las armas enemigas y potentes motores que puedan volar bajo y lento cuando sea necesario (para identificar y apuntar a los objetivos) y que sean capaces de soportar el peso extra de armas y combustible. además. Aviones de ataque puro: A-1 Skyraider. Su-25 Frogfoot. tácticos. tenemos los aviones de ataque puro. para evitar radares y defensas anti-aéreas. combatiendo a quemarropa contra las defensas del enemigo. grandes y vulnerables. En conclusión. 15 . ya que son relativamente lentos.

que empleará los medios antiaéreos y los aviones caza de su sistema de defensa para evitar el ataque. Los bombarderos son aviones diseñados para transportar una carga bélica determinada y lanzarla sobre un objetivo.Aviones especialistas en ataque. pero que conservan capacidades de caza: F-15E Strike Eagle. Panavia Tornado IDS Bombarderos Bombardero estratégico estadounidense B-52 Stratofortress. 16 . ya sea en tierra o en el mar. teniendo muchas veces para ello que adentrarse en espacio aéreo dominado por el enemigo.

estos últimos cuando suponen una amenaza para una nación potencialmente enemiga. B-52. Los bombarderos no se diseñaron para enfrentarse directamente con otras aeronaves y se clasifican de acuerdo con la capacidad en peso en armas que pueden transportar. convirtiéndose en un elemento disuasorio de primer orden. etc. de acuerdo con designaciones muchas veces arbitrarias. B-2. Tu-22M. se distinguen bombarderos ligeros. Tu-160. Ejemplos de bombarderos son: B-1 Lancer. Aviones de caza 17 . estos pueden ser ópticos o electrónicos. Así. y deben contar con medios para apuntar el lanzamiento. medianos y pesados. se puede además clasificar a los bombarderos como convencionales o estratégicos.Los bombarderos están dotados de bodegas y/o puntos de anclaje externos donde transportan la carga que puede ser bombas o también misiles crucero. Conjugando la capacidad de transporte con el alcance.

Por tanto. equipadas. Aquí conviene diferenciar entre los aviones caza-interceptores "livianos" y los "pesados". F-106. Se denominan "caza" o "caza-interceptores" a aquellas aeronaves concebidas.). poseer agilidad y maniobrabilidad para el combate cercano.etc. así como para la defensa del espacio aéreo propio. por último. BAC Lightning. ya que su misión principal consiste en defender el espacio áereo propio (Mirage III. del inglés: Patrulla Aérea de Combate) y del dogfight. F-22). el cual comienza en el Estado Mayor de su fuerza aérea y abarca todos los medios de detección y neutralización de la amenazas que puedan presentarse en el espacio aéreo propio. Los aviones caza tienen la función de desplegarse para defender puntos estratégicos en caso de que el enemigo envíe sus aviones para atacarlos. por eso se los llama también cazas de superioridad aérea (Su-27. Su-27. en realidad. y que hace referencia al combate cerrado entre aviones. término que en inglés significa literalmente "pelea de perros". Mirage IIIC (no confundir con la versión IIIE).Caza de superioridad aérea estadounidense F-22 Raptor. etc. F-15. así como una gran velocidad final. Ejemplos de aviones caza-interceptores son: F-102. F-102. BAC Lightning. armadas y utilizadas para la búsqueda y destrucción de las aeronaves del enemigo. diseñadas. contar con medios electrónicos (como el radar) para detectar y poder atacar al adversario. es esencial que entre sus características figure poder emplear pistas de reducidas dimensiones. De ahí la denominación. poseer potencia suficiente para ganar altura en poco tiempo. MiG-23. ya que su función es "cazar" a otras aeronaves. F-22 (actualmente re designado "F-22A" ya que se le agregó la capacidad de portar bombas). MiG-23. tener la capacidad de portar y disparar munición para el combate aire-aire. Un avión caza es. y. mientras que los segundos deben adentrarse en el espacio aéreo del enemigo para arrebatárselo. F-106 Delta Dart. El avión de caza es el encargado de patrullar el espacio aéreo propio en las llamadas CAP (Combat Air Patrol. Los primeros son más pequeños y livianos. 18 . F-14 (aunque la Armada de los Estados Unidos lo equipó luego con bombas). el último eslabón del sistema de defensa aérea de un determinado país.

Las aeronaves de transporte militar son típicamente aeronaves de carga de ala fija o giratoria que son usadas para enviar tropas. Originalmente derivados de bombarderos. o construidas por ingenieros. normalmente fuera de las rutas de vuelo comerciales en espacio aéreo no controlado.Como se ven. operacional y estratégico sobre pistas no preparadas. debido a su mayor relación costo-beneficio. armamento y otro equipamiento militar a través de distintos métodos a cualquier lugar de operaciones militares alrededor de la superficie del planeta. la mayoría de las veces tanto los fabricantes como los gobiernos clientes de los mismos. Algunas aeronaves de transporte militar están diseñadas para desempeñar múltiples misiones como reabastecimiento en vuelo y transporte táctico. Helicópteros militares 19 . terminan optando por los cazabombarderos. los aviones de transporte militar fueron usados para desplegar fuerzas aerotransportadas durante la segunda Guerra Mundial y remolcar planeadores militares. Aeronaves de transporte logístico Avión de transporte militar español CASA C-295.

Un helicóptero de ataque es un helicóptero militar específicamente diseñado y fabricado para portar armamento dedicado a atacar objetivos terrestres. tales como infantería. Muchos helicópteros de ataque también tienen capacidad para llevar misiles aireaire. vehículos blindados y estructuras del enemigo. cohetes. Actualmente. los helicópteros de ataque tienen dos cometidos principales: el primero. destruir vehículos acorazados y mecanizados del enemigo en el marco de misiones antitanque. proporcionar apoyo aéreo cercano directo y preciso a las unidades terrestres. y misiles como el AGM-114 Hellfire o el Spike ER.Helicóptero de ataque estadounidense AH-64 Apache. y el segundo. ametralladoras. El armamento usado en los helicópteros de ataque pueden incluir cañones automáticos. en misiones de reconocimiento armado. como el OH-58 Kiowa. También son utilizados para complementar a helicópteros más ligeros. Aeronaves de reconocimiento 20 . aunque normalmente como medida de autoprotección.

aeroplanos con hélices propulsoras. Aviones de combate polivalentes 21 . y helicópteros. Todas estas aeronaves tuvieron que ser probadas para asegurarse de que fueran seguras.Aeronaves experimentales En la actualidad hay muchas clases diferentes de aeronaves: aviones de propulsión a chorro.

F-18. y descienden de los cazas puros o cazainterceptores. ya que muchas veces son versiones con capacidad aire-suelo de los mismos. MiG-23B Flogger-F. El cazabombardero es el principal avión de combate con que cuentan las fuerzas aéreas de todo el mundo ya que es un sistema de armas muy flexible. supresión de defensas. indistintamente. F-16. F-35. etc. tanto para tareas de vigilancia del espacio aéreo como para misiones de ataque a superficie de objetivos tácticos. etc. se los denomina simplemente cazas. El cazabombardero es un avión caza que además de poder asumir la función de defensa aérea. sirve como plataforma de ataque al suelo. De hecho. F-15E Strike Eagle. Aviones supersónicos 22 . En general. Su-30. de guerra electrónica. reconocimiento.Cazabombardero polivalente ruso-indio Sujói Su-30MKI. por razones presupuestarias. asumiendo además tareas anti buque. pocas naciones pueden darse el lujo de poseer un avión distinto para cada función. optando por aeronaves ultimación. pudiéndose emplear. MiG-29. Ejemplos de cazabombarderos son: F-4.

Los bombarderos transportan una enorme carga de armamento y suficiente combustible para vuelos de largo alcance. pero fue retirado en 1978. después de solo 6 meses en servicio. y también el bombeo de combustible y entre los tanques de compensación delanteros y traseros para ayudar a estabilizar el avión. que es percibida como un "estampido sónico". o expansión. Unos pocos aviones militares. Concorde Mach 1 AVIONES MILITARES MODERNOS Los aviones militares modernos se encuentran entre los productos más sofisticados y costosos del siglo 21. Las cazas necesitan más controles operados por computadora para su maniobrabilidad.Los aviones supersónicos vuelan a mayor velocidad que el sonido (MACH 1). que incluyen una proa abatible que se baja durante el despegue y el aterrizaje para mejorar la visibilidad de la cabina de mando. El concorde tiene un fuselaje estrecho y corta envergadura de alas para reducir la resistencia durante el vuelo supersónico. El Tu-144 tenía una velocidad máxima mayor que el Concorde. el método utilizado para deshacerse de los tanques de combustible ya vacíos es el de desprender dichos tanques en pleno vuelo. producido conjuntamente por franceses y británicos. Se caracteriza por muchas innovaciones. Sus ruidosos motores turborreactores con postquemador le capacitan para transportar 100 pasajeros a una velocidad de crucero de MACH 1 entre 15000/18000 metros de altitud. El Concorde ha permanecido en servicio desde 1976. Cuando un avión rebasa la velocidad de MACH 1 se produce una onda de choque. sus potentes motores y eficaces armas aire-aire. como el tornado y el F-14 23 . Estos perfeccionamientos técnicos capacitan a los cazas actuales a entrar en combate con adversarios que se encuentran fuera de su alcance visual. pero solo se han fabricado 2 aviones supersónicos de pasajeros (también llamados SST):el ruso Tu-144 y el Concorde. La mayoría de los cazas modernos también disponen de misiles guiados. Existen muchos aviones militares supersónicos. radar y sensores pasivos e infrarrojos.

Durante el despegue y el aterrizaje sus alas están completamente extendidas. utilizan radares de seguimiento del terreno para volar tan cerca del suelo que impiden su detección por el radar enemigo. Una reciente innovación técnica es el bombardero "STEALTH" (el furtivo) que está diseñado para absorber o desviar el radar enemigo y no ser detectado. pero para vuelos de alta velocidad y ataques a bajo nivel las alas son pivotadas hacia atrás. Uno de los grandes descubrimientos de la aviación moderna ha sido la construcción y desarrollo de los helicópteros tanto en el ámbito militar como civil. 24 .TOMCAT. al mismo tiempo que su ancho y longitud podrán variar hasta un 50%. LOS AVIONES DEL FUTURO Gracias al efecto combinado de los nuevos materiales y del uso de la informática. Utilizará alas aéreas elásticas que se tensarán como los músculos y se juntarán en vuelo. Los bombarderos anteriores. el avión del futuro imitará cada vez más el vuelo de los pájaros. como el Tornado. disponen de alas de flecha variables (oscilante). toda una revolución en la ingeniería aeroespacial.

ir a la facultad. ir a la escuela o trabajar en el último piso de un edificio cuya azotea se encuentra poblada de dispositivos de comunicación. estaciones base o BTS) y una serie de centrales telefónicas de conmutación de 1er y 5º nivel (MSC y BSC respectivamente). acceso a Internet. el hecho de vivir. FUNCIONAMIENTO La comunicación telefónica es posible gracias a la interconexión entre centrales móviles y públicas. que permite comunicarse desde casi cualquier lugar. este aumento creciente en el uso de esos servicios públicos (aunque en su mayoría son prestados por empresas privadas). Así. podrá funcionar en una parte u otra del mundo. ha generado al mismo tiempo la preocupación sobre los potenciales efectos indeseados para la salud. trabajar. reproducción de vídeo e incluso GPS y reproductor mp3. Su principal característica es su portabilidad. ha generado preocupación en los usuarios. como el teléfono convencional. TELÉFONO MÓVIL O CELULAR El teléfono móvil es un dispositivo inalámbrico electrónico que permite tener acceso a la red de telefonía celular o móvil. Una característica actual es el hecho que los sistemas de comunicaciones inalámbricos se encuentran ampliamente distribuidos dado su ubicuidad. Esta demanda creciente de la comunicación celular ha sido necesariamente acompañada por la instalación de una red de estaciones base de antenas para poder recibir y para enviar las señales adecuadas a esas comunicaciones. Se denomina celular debido a las antenas repetidoras que conforman la red. La telefonía móvil consiste en la combinación de una red de estaciones transmisoras-receptoras de radio (repetidores. 25 . prestando servicios incluso en zonas remotas. cada una de las cuales es una célula. En la actualidad se calcula que en todo el mundo existen aproximadamente 200 millones de usuarios. agenda. ha aumentado de manera notable en los últimos años.Celulares El uso de los teléfonos celulares. que posibilita la comunicación entre terminales telefónicos portátiles (teléfonos móviles) o entre terminales portátiles y teléfonos de la red fija tradicional. su rápido desarrollo ha incorporado otras funciones como son cámara fotográfica. Según las bandas o frecuencias en las que opera el móvil. si bien existen redes telefónicas móviles satelitales. Aunque su principal función es la comunicación de voz.

Alguien que utiliza un teléfono celular. Un teléfono celular puede utilizar 1664 canales. los sonidos se convierten en señales electromagnéticas. Se puede dividir un área (como una ciudad) en células. puede transmitir hasta 5 millas. puede manejar a través de toda la ciudad y mantener la conversación todo el tiempo. Un radio OC es un aparato simple. Cada célula es típicamente de un tamaño de 10 millas cuadradas (unos 26Km2). siendo recibidas y transformadas nuevamente en mensaje a través de antenas repetidoras o vía satélite. que permiten extender la frecuencia por toda una ciudad. La genialidad del teléfono celular reside en que una ciudad puede ser dividida en pequeñas "células" (o celdas). Las células se imaginan como unos hexágonos en un campo hexagonal grande. que viajan a través del aire. Este permite que dos personas se comuniquen utilizando la misma frecuencia. las células pueden concentrarse en distancias cada vez 26 . Las estaciones de base se separan entre 1 a 3 Km. como este: Sin embargo. Sólo uno puede hablar al tiempo. por sofisticados que sean y luzcan. En un radio simple. este estándar estableció el concepto de dos portadores en cada mercado. Estos teléfonos también operan con “células” (o “celdas”) y pueden alternar la célula usada a medida que el teléfono es desplazado. aunque pueden llegar a separarse por más de 35Km en zonas rurales. Para entender mejor cómo funcionan estos sofisticados aparatos puede ayudar compararlos con una radio de onda corta (OC) o con un walkie-talkie. Una radio OC. Las frecuencias de transmisión y recepción de cada canal de voz están separadas por 45 MHz. no dejan de ser radio transmisores personales. así que sólo una persona puede hablar al tiempo. En zonas muy densamente pobladas o áreas con muchos obstáculos (como ser edificios altos). en zonas urbanas. conocidos como portadores A y B. Las células le dan a los teléfonos un rango mucho mayor a los dispositivos que lo comparamos. debido a que tiene un poder mucho más alto. cada una con una amplitud de 30 KHz. Las células son las que dan a los teléfonos celulares un gran rango. esto quiere decir que utiliza una frecuencia para hablar. Siendo un sistema de comunicación telefónica totalmente inalámbrica. El teléfono celular estándar de la primera generación estableció un rango de frecuencias entre los 824 MHz y los 894 para las comunicaciones analógicas. Una radio OC tiene 40 canales. Un par de frecuencias (una para enviar y otra para recibir) son usadas para proveer un canal dual por teléfono. He aquí cómo funciona. Un walkie-talkie puede transmitir hasta quizás una milla. Cada portador también tiene 21 canales de datos para usar en otras actividades. Para enfrentar la competencia y mantener los precios bajos. Un teléfono celular es un dispositivo dual. ambos transmisores utilizan la misma frecuencia.Los teléfonos celulares. y una segunda frecuencia aparte para escuchar. A cada portador se le da 832 frecuencias de voz. Esto es lo que permite que millones de usuarios utilicen el servicio en un territorio amplio sin tener problemas. el tamaño de las células puede variar mucho dependiendo del lugar en que se encuentre.

que en caso de tratarse de una generación más moderna. alrededor de 168 canales disponibles simultáneamente. interferir con el envío de las señales entre las células que se encuentren más lejanas. es relativamente bajo. más las seis celdas que la rodean en un arreglo hexagonal. como los PCS (Personal Communication Services). Con la transmisión digital. las mismas frecuencias pueden ser reutilizadas en células no adyacentes. que normalmente opera con baterías. el número de canales disponibles aumenta. la mayoría de los radios de onda corta transmiten a 5 Watts). las cantidades sirven para mostrar cómo funciona esta tecnología. a su vez. Cada celda en un sistema análogo utiliza un séptimo de los canales de voz disponibles. 27 . Debido a que los teléfonos celulares y las estaciones de base utilizan transmisores de bajo poder. Muchos teléfonos celulares tienen 2 fuerzas de señal: 0. en un sistema analógico. La estación base también transmite a bajo poder. Microcélulas pueden ser usadas para incrementar la capacidad general de la red en zonas densamente pobladas como ser los centros capitalinos." Los subterráneos son típicos escenarios donde una microcélula se hace necesaria. Cada célula utiliza un séptimo de los 416 canales duales de voz. por lo que algunos edificios tienen su propia "microcélula. requieren células muy cercanas unas de otras debido a su alta frecuencia y bajo poder en el que operan. Los teléfonos celulares poseen unos transmisores de bajo poder dentro de ellos. Los transmisores de bajo poder tienen 2 ventajas: El consumo de energía del teléfono. De esta forma. una celda.6 Watts y 3 Watts (como comparación. Algunas tecnologías. Esto significa que bajo poder requiere baterías pequeñas. y esto hace posible que existan teléfonos que caben en la mano. Si bien los números pueden variar dependiendo de la tecnología usada en el lugar. puede de todas formas extrapolarse directamente. Los edificios pueden. cada una utilizando un séptimo de los canales disponibles para que cada celda tenga un grupo único de frecuencias y no haya colisiones entre células adyacentes. Por ejemplo el sistema digital TDMA puede acarrear el triple de llamadas en cada celda. Dejando entonces a cada célula aproximadamente los 59 canales disponibles nombrados anteriormente. Cada célula tiene una estación base que consta de una torre y un pequeño edificio en donde se tiene el equipo de radio. A su vez aumenta en forma considerable el tiempo en que se puede usar el teléfono entre carga y carga de la batería. Eso es. en cualquier celda pueden hablar 59 personas en sus teléfonos celulares al mismo tiempo.menores. Esta configuración puede verse en forma gráfica en la siguiente figura: Puede observarse un grupo de células numerado en la parte superior.

Las transmisiones de la base central y de los teléfonos en la misma celda no salen de ésta. Este cambio hace que su teléfono mude su señal a otra célula.Las transmisiones de las estaciones base y de los teléfonos no alcanzan una distancia más allá de la célula. Las dos estaciones base se coordinan a sí mismas a través del MTSO. A medida que usted se mueva en la célula. el teléfono celular envía un mensaje a la torre solicitando una conexión a un número de teléfono específico. cada celda puede reutilizar las mismas 59 frecuencias a través de la ciudad. La llamada en este momento toma un canal inalámbrico así como un canal en la red de telefonía pública que se mantendrán abiertos hasta que la llamada se concluya. Por lo tanto. Entretanto. y alguien trata de llamarle. y en algún punto su teléfono obtiene una señal que le indica que cambie de frecuencia. Desde los primeros sistemas la MTSO lo encontraba activando su teléfono (utilizando uno de los canales de control. los registra y compara para 28 . Esta oficina maneja todas las conexiones telefónicas y estaciones base de la región. un dispositivo llamado "switch" conecta la señal del teléfono celular a un canal en la red de telefonía pública. Ahora estará conectado a la estación base y puede empezar a hablar y escuchar. y trata de encontrarlo. El teléfono también transmite una propuesta de registro y la red mantiene unos datos acerca de su ubicación en una base de datos (de esta forma es que la MTSO sabe en qué célula se encuentra si quiere timbrar su teléfono). ya que su teléfono se encuentra siempre escuchando) en cada célula de la región hasta que su teléfono respondiera. el teléfono detecta los cambios en la señal. Es por esto que en la figura de arriba en cada celda se pueden utilizar las mismas frecuencias sin interferir unas con otras. TÍPICA TORRE DE TRANSMISIÓN DE TELEFONÍA CELULAR Cuando el usuario desea realizar una llamada. la estación base de la célula hacia la que se está moviendo (que está escuchando la señal) será capaz de notar que la señal se hace más fuerte. Entonces la estación base y el teléfono decidirán cuál de los 59 canales en su teléfono celular usará. A medida que se mueve entre células. Digamos que usted tiene un celular. Pero debido a que hay tanta gente utilizando teléfonos celulares. La tecnología celular requiere un gran número de estaciones base para ciudades de cualquier tamaño. lo enciende. Una ciudad típica grande puede tener cientos de torres emisoras. la estación base notará que la fuerza de su señal disminuye. los costos se mantienen bajos para el usuario. La MTSO recibe la llamada. En sistemas modernos los teléfonos esperan una señal de identificación del sistema (IDS) del canal de control cuando se encienden. Cada portador en cada ciudad tiene una oficina central llamada MTSO (PSTN en el diagrama siguiente). Si la torre dispone de los suficientes recursos para permitir la comunicación.

El teléfono móvil se remonta a los inicios de la Segunda Guerra Mundial. Con el tiempo se fue haciendo más accesible al público la telefonía móvil. preferimos darle un enfoque más general. aunque formalmente presentado en 1894 por un joven italiano llamado Guglielmo Marconi. y esto es producto de lo que sucedió hace algunas décadas. La comunicación inalámbrica tiene sus raíces en la invención del radio por Nikola Tesla en los años 1880. el funcionamiento de la telefonía celular. hasta el intercambio de ondas electro magnéticas necesario para establecer una sencilla comunicación entre dos teléfonos celulares. Este fue el inicio de una de las tecnologías que más avances tiene. donde ya se veía que era necesaria la comunicación a distancia. hasta el punto de que cualquier persona normal pudiese adquirir un terminal. LOS INICIOS (0G) PIONEROS 29 . que es un equipo que permite el contacto con las tropas vía ondas de radio cuya banda de frecuencias en ese tiempo no superaban los 60 MHz. ya sea llamar. deteniéndose más en aspectos de frecuencia y amplitud de las ondas por ejemplo. Y es así como en los actuales días el teléfono móvil es uno de los objetos más usados. es ahí donde se crea el teléfono móvil y marca un hito en la historia de los componentes inalámbricos ya que con este equipo podría hablar a cualquier hora y en cualquier lugar. Durante ese periodo y 1985 se comenzaron a perfeccionar y amoldar las características de este nuevo sistema revolucionario ya que permitía comunicarse a distancia.. Fue así que en los años 1980 se llegó a crear un equipo que ocupaba recursos similares a los Handie Talkie pero que iba destinado a personas que por lo general eran grandes empresarios y debían estar comunicados. mandar un mensaje de texto. dando sí algunos datos técnicos específicos que nos parecieron de mayor relevancia para el entendimiento general del tema.con los de la nueva célula cuando cambia de canal. etc. Si bien puede enfocarse el tema de manera mucho más técnica. en forma bastante simplificada. aunque continúa en la búsqueda de novedades y mejoras. Si el teléfono no puede hallar canales para escuchar se sabe que está fuera de rango y muestra un mensaje de "sin servicio". HISTORIA DEL TELÉFONO MÓVIL La telefonía móvil usa ondas de radio para poder ejecutar las operaciones desde el móvil a la base. abarcando desde el aspecto teórico en la división de las zonas geográficas en células. Éste es. es por eso que la compañía Motorola creó un equipo llamado Handie Talkie H12-16.

Estuvo en servicio hasta su extinción en 2003. Las frecuencias utilizadas en Europa fueron de 900 y 1800 MHz. En 1986. Ericsson modernizó el sistema.Los primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir de finales de los años 40 en los Estados Unidos. Generalmente se instalaba el equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el salpicadero del coche. 30 . El sistema TACS se utilizó en España con el nombre comercial de MoviLine. Además del sistema NMT. Este sistema seguía utilizando canales de radio analógicos (frecuencias en torno a 450 MHz) con modulación en frecuencia (FM). llevándolo hasta el nivel NMT 900. que utiliza sistemas como GSM. Esto posibilitó dar servicio a un mayor número de usuarios y avanzar en la portabilidad de los terminales. Se popularizó el uso de sistemas FM gracias a su superior calidad de audio y resistencia a las interferencias. Los primeros equipos eran enormes y pesados. iDEN e IS-95. Su servicio móvil fue llamado Bell System Service No era un servicio popular porque era extremadamente caro. Los equipos 1G pueden parecer algo aparatosos para los estándares actuales pero fueron un gran avance para su época. por supuesto) desde 1946 hasta 1985. Una de las compañías pioneras que se dedicaron a la explotación de este servicio fue la americana Bell. por lo que estaban destinados casi exclusivamente a su uso a bordo de vehículos. pero estuvo operando (con actualizaciones tecnológicas. ya que podían ser trasladados y utilizados por una única persona. Esta nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias superiores (del orden de 900 MHz). en los 80 se desarrollaron otros sistemas de telefonía móvil tales como: AMPS (Advanced Mobile Phone System) en EEUU y TACS (Total Access Comunication System). IS-136. PRIMERA GENERACIÓN (1G): MADURACIÓN DE LA IDEA En 1981 el fabricante Ericsson lanza el sistema NMT 450 (Nordic Mobile Telephony 450 MHz). El servicio se daba en las bandas de HF y VHF. Era el primer sistema del mundo de telefonía móvil tal como se entiende hoy en día. Eran sistemas de radio analógicos que utilizaban en el primer momento modulación en amplitud (AM) y posteriormente modulación en frecuencia (FM). SEGUNDA GENERACIÓN (2G): POPULARIZACIÓN En la década de 1990 nace la segunda generación.

El desarrollo de esta generación tiene como piedra angular la digitalización de las comunicaciones. MMS (Sistema de Mensajería Multimedia) Este tipo de mensajes se envían mediante GPRS y permite la inserción de imágenes. permite la inclusión de melodías e iconos dentro del mensaje basándose en los sms.0G) Dado que la tecnología de 2G fue incrementada a 2. en la cual cada plantilla solo puede contener un archivo de cada tipo aceptado. en la cual se incluyen nuevos servicios como EMS y MMS: • • EMS es el servicio de mensajería mejorado. El estándar que ha universalizado la telefonía móvil ha sido el archiconocido GSM: Global Sistem for Mobile communications o Groupe Spécial Mobile. solo puede contener una imagen. Se trata de un estándar europeo nacido de los siguientes principios: • • • • Buena calidad de voz (gracias al procesado digital). GENERACIÓN DE TRANSICIÓN (2. Un MMS se envía en forma de diapositiva. un sonido y un texto en cada plantilla. sonidos. pero como la tecnología CDMA no estaba lo suficientemente madura en aquel momento se optó por dar un paso intermedio: 2. Deseo de implantación internacional. además se aumenta el nivel de seguridad y se simplifica la fabricación del Terminal (con la reducción de costes que ello conlleva). Las comunicaciones digitales ofrecen una mejor calidad de voz que las analógicas. PDC (Japón). • • Realmente. Compatibilidad con la RDSI (Red Digital de Servicios Integrados). Instauración de un mercado competitivo con multitud de operadores y fabricantes.6 Kbps) y el mercado empezaba a requerir servicios multimedia que hacían necesario un aumento de la capacidad de transferencia de datos del sistema. un EMS equivale a 3 o 4 sms. En esta época nacen varios estándares de comunicaciones móviles: D-AMPS (EEUU). videos y texto. GSM ha cumplido con todos sus objetivos pero al cabo de un tiempo empezó a acercarse a la obsolescencia porque sólo ofrecía un servicio de voz o datos a baja velocidad (9.5G. Itinerancia. Es en este momento cuando se empieza a gestar la idea de 3G.5G. cdmaOne (EEUU y Asia) y GSM. si se desea 31 . es decir. Terminales realmente portátiles (de reducido peso y tamaño) a un precio asequible.

2 Mbps. EDGE (Enhaced Data rates for GSM Evolution) permite velocidades de datos hasta 384 Kbps. UMTS utiliza la tecnología CDMA. según parece. • TERCERA GENERACIÓN (3G): EL MOMENTO ACTUAL 3G nace de la necesidad de aumentar la capacidad de transmisión de datos para poder ofrecer servicios como la conexión a Internet desde el móvil. Se esperaba que fuera un bombazo de ventas como GSM pero realmente no ha resultado ser así ya que. • GPRS (General Packet Radio Service) permite velocidades de datos desde 56kbps hasta 114 kbps. CUARTA GENERACIÓN (4G): EL FUTURO La generación 4 Generación o 4G será la evolución tecnológica que ofrecerá al usuario de telefonía móvil un mayor ancho de banda que permitirá. la recepción de televisión en Alta Definición. la mayoría de usuarios tiene bastante con la transmisión de voz y la transferencia de datos por GPRS y EDGE. la televisión y la descarga de archivos. EVOLUCIÓN Y CONVERGENCIA TECNOLÓGICA 32 . que se hizo realidad con las tecnologías GPRS y EDGE. Hoy en día no hay ningún sistema de este nivel que esté claramente definido. la videoconferencia. entre muchas otras cosas.agregar más de estos tendría que agregarse otra plantilla. UMTS ha sido un éxito total en el campo tecnológico pero no ha triunfado excesivamente en el aspecto comercial. Para poder prestar estos nuevos servicios se hizo necesaria una mayor velocidad de transferencia de datos. según las condiciones del terreno). Cabe mencionar que no es posible enviar un vídeo de más de 15 segundos de duración. En este momento el desarrollo tecnológico ya posibilita un sistema totalmente nuevo: UMTS (Universal Mobile Telecommunications System). pero a modo de ejemplo podemos echar un vistazo a los sistemas LTE (Long Term Evolution). lo cual le hace alcanzar velocidades realmente elevadas (de 144 Kbps hasta 7.

El desarrollo de baterías más pequeñas y de mayor duración. el primer teléfono móvil en 1983 que pesaba 780 gramos. correo electrónico.La evolución del teléfono móvil ha permitido disminuir su tamaño y peso. agenda electrónica PDA. navegación por Internet y hasta Televisión digital. reproducción de música MP3 y otros formatos. localizador e identificador de personas. CONEXIÓN A INTERNET Con la aparición de la telefonía móvil digital. desde un terminal móvil. a los actuales más compactos y con mayores prestaciones de servicio. mensajería instantánea. Las compañías de telefonía móvil ya están pensando nuevas aplicaciones para este pequeño aparato que nos acompaña a todas partes. Las primeras conexiones se efectuaban mediante una llamada telefónica a un número del operador a través de la cual se transmitían los datos de manera similar a como lo haría un módem de PC. conocido como tecnología WAP. SMS. nació el GPRS. Algunas de esas ideas son: medio de pago. El avance de la tecnología ha hecho que estos aparatos incorporen funciones que no hace mucho parecían futuristas. Telnet. que permitió acceder a internet a través del protocolo TCP/IP. y se tarifa en función de la cantidad de información transmitida y recibida. desde el Motorola DynaTAC. como juegos. a servicios como FTP. correo electrónico. video llamada. pantallas más nítidas y de colores. 33 . La velocidad del GPRS es de 54 kbit/s en condiciones óptimas. fotografía digital y video digital. hacen del teléfono móvil un elemento muy apreciado en la vida moderna. Posteriormente. Mediante el software adecuado es posible acceder. fue posible acceder a páginas de Internet especialmente diseñadas para móviles. utilizando los mismos protocolos que un ordenador convencional. la incorporación de software más amigable.

apareciendo la tarifa ilimitada de Movistar "Tarifa Plana Internet Plus"[] y el módem USB prepago de Vodafone. Vodafone ofrece desde abril de 2010 una tarifa de internet móvil sin límites de descarga y. Movistar. Algunos de los virtuales. 3G y en algunas ciudades 3.00 pesos o $18. El Mercado de telefonía móvil en Venezuela para el primer trimestre del 2008 alcanza la cifra de Digitel) 34 . Pepephone o Simyo. consiguiendo velocidades similares a las de la ADSL. también ofrecen este servicio.5G. Orange. el servicio ilimitado de Iusacell tiene un costo a junio de 2009 si es navegación desde el móvil $250.6 Mbps). El operador líder en tráfico de datos móviles en 2007 era Vodafone.[] que se une a la de cobertura. el servicio ilimitado de Telcel tiene un costo a junio de 2009 de $379. Vodafone y Yoigo) ofrecen conexión a Internet móvil. Internet móvil en Colombia En Colombia existen tres operadoras móviles con red propia (Movistar. comienzan a aparecer módems para PC que conectan a Internet utilizando la red de telefonía móvil. en la actualidad existe una intensa batalla comercial en este campo. Iusacell ofrece el servicio bajo 3G mientras que Nextel lo ofrece bajo WAP sobre iDEN. Iusacell y Telcel cuentan con la cobertura más amplia de 3G en el país. sobre todo. Comcel y y las tres ofrecen acceso a transferencia de datos. Movilnet y y las tres ofrecen acceso a transferencia de datos. El Mercado de telefonía móvil en Colombia está creciendo.[] No obstante. notablemente Yoigo y Simyo.[] Tigo) Internet móvil en España Actualmente todos los operadores españoles con red propia (Movistar. GPRS (EDGE).5G. si es navegación por PC no tiene un plan ilimitado.EvDO Otras tecnologías más recientes que permiten el acceso a Internet son y HSPA. sin bajadas de velocidad (21. como por ejemplo Jazztel. Este sistema aún es caro ya que el sistema de tarificación no es una verdadera tarifa plana sino que establece limitaciones en cuanto a datos o velocidad.50 dólares por 30 días de servicio. Nextel) En Internet móvil en Venezuela En Venezuela existen tres operadoras móviles con red propia (Movistar. Algunos de los nuevos operadores basan parte de su estrategia comercial en este servicio. y las cuatro ofrecen acceso a transferencia de datos en sus diferentes redes. y en algunas plazas están implementando 3. Movistar lo ofrece bajo WAP y GPRS.[] Internet móvil en México México existen cuatro operadores móviles con red propia (Telcel. Telcel lo ofrece bajo WAP. [] pero al tratarse de un servicio muy lucrativo para los operadores. Aprovechando la tecnología UMTS. Por otro lado. es común entre los operadores anunciar supuestas tarifas planas que después resultan estar limitadas.00 pesos o $28 dólares. Iusacell. EDGE.

Los principales objetivos que se pretenden conseguir con esta norma son: • • • Facilitar las comunicaciones entre equipos móviles y fijos.8% de los usuarios venezolanos se declara interesado en conectarse a Internet a través del móvil.5%) y la descarga de tonos (en un 44.1%). mientras que un 18% declara usar este servicio. en vez de capturar y almacenar en películas fotográficas como las cámaras fotográficas convencionales.7%) las tres actividades donde los usuarios venezolanos manifiestan mayor interés en cuanto a Internet móvil. impresoras o cámaras digitales. teléfonos móviles. empresa especializada en estudios de mercado. En este caso. computadoras portátiles. Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal. Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales.4 GHz.[7] según datos oficiales del ente gubernamental competente (CONATEL).24. la búsqueda de información (en un 42. ordenadores personales. Eliminar cables y conectores entre éstos. INFRARROJO 35 . CARACTERISTICAS TECNOLOGICAS DE LOS NUEVOS CELULARES BLUETOOTH Bluetooth es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2. asegura en un estudio de noviembre de 2007[8] que un 42. al aparato también se lo denomina cámara filmadora digital. lo hace digitalmente mediante un dispositivo electrónico. o en cinta magnética usando un formato analógico como muchas cámaras de video. Actualmente se venden más cámaras fotográficas digitales que cámaras con película [ de 35 mm.405.387 líneas. fotografías Las cámaras digitales compactas modernas generalmente son multifuncionales y contienen algunos dispositivos capaces de grabar sonido y/o video además de fotografías. Datanalisis. siendo los correos electrónicos (en un 57. como PDA. CÁMARA DIGITAL Una cámara digital es una cámara fotográfica que.

El infrarrojo es un tipo de luz que no podemos ver con nuestros ojos. Nuestros ojos pueden solamente ver lo que llamamos luz visible. La luz infrarroja nos brinda información especial que no podemos obtener de la luz visible. VIDEOLLAMADA Videoconferencia es la comunicación simultánea bidireccional de audio y vídeo, permitiendo mantener reuniones con grupos de personas situadas en lugares alejados entre sí. Adicionalmente, pueden ofrecerse facilidades telemáticas o de otro tipo como el intercambio de informaciones gráficas, imágenes fijas, transmisión de ficheros desde el PC, etc. El núcleo tecnológico usado en un sistema de videoconferencia es la compresión digital de los flujos de audio y video en tiempo real. [ ]Su implementación proporciona importantes beneficios, como el trabajo colaborativo entre personas geográficamente distantes y una mayor integración entre grupos de trabajo. WAP Wireless Application Protocol o WAP (protocolo de aplicaciones inalámbricas) es un estándar abierto internacional para aplicaciones que utilizan las comunicaciones inalámbricas, p.ej. acceso a servicios de Internet desde un teléfono móvil. Se trata de la especificación de un entorno de aplicación y de un conjunto de protocolos de comunicaciones para normalizar el modo en que los dispositivos inalámbricos, se pueden utilizar para acceder a correo electrónico, grupo de noticias y otros. El organismo que se encarga de desarrollar el estándar WAP fue originalmente el WAP Forum, fundado por cuatro empresas del sector de las comunicaciones móviles, Sony-Ericsson, Nokia, Motorola y Openwave (originalmente Unwired Planet). Desde 2002 el WAP Forum es parte de la Open Mobile Alliance (OMA), consorcio que se ocupa de la definición de diversas normas relacionadas con las comunicaciones móviles, entre ellas las normas WAP.

WIFI

Cuando hablamos de WIFI nos referimos a una de las tecnologías de comunicación inalámbrica mediante ondas más utilizada hoy en día. WIFI, también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre comercial.

36

En la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:
• •

802.11b, que emite a 11 Mb/seg, y 802.11g, más rápida, a 54 MB/seg.

De hecho, son su velocidad y alcance (unos 100-150 metros en hardware asequible) lo convierten en una fórmula perfecta para el acceso a internet sin cables. Para tener una red inalámbrica en casa sólo necesitaremos un punto de acceso, que se conectaría al módem, y un dispositivo WIFI que se conectaría en nuestro aparato. Existen terminales WIFI que se conectan al PC por USB, pero son las tarjetas PCI (que se insertan directamente en la placa base) las recomendables, nos permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles podemos encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se venden con tarjeta integrada.
MANOS LIBRES Habitualmente se conoce como manos libres o kit manos libres a aquellos dispositivos que se utilizan en los coches para poder hablar por teléfono. Podemos distinguir dos tipos diferentes de kit manos libres: Aquellos que requieren instalación y los que no. Los primeros suelen ser más pequeños, y se conectan directamente a la batería del coche. El sonido sale por los altavoces del vehículo, por lo que la calidad de sonido es mejor. Por el contrario, los manos libres sin instalación suelen llevar una batería que es necesario recargar con cierta frecuencia. Eso sí, estos últimos no necesitan ser instalados por un especialista.

FABRICANTES
es actualmente el mayor fabricante en el mundo de teléfonos móviles, con una cuota de mercado global de aproximadamente 39,1% en el segundo trimestre de 2008. Continúan la lista con un 14,4% Samsung, 10,2% Motorola, 8% LG y 7,5% Sony Ericsson. Entre otros fabricantes se encuentran Alcatel, Apple Inc., Audiovox (hoy UT Starcom), Benefon, BenQ-Siemens, Hewlett Packard, High Tech Computer, Fujitsu, HTC, Huawei, Kyocera,Mitsubishi, NEC Corporation, Neonode, Panasonic (Matsushita Electric), Pantech Curitel, Philips, Research In Motion, SAGEM, Gtran, Sanyo, Sharp, Sierra Wireless, SK Teletech, Skyzen, TCL Corporation, Toshiba, Verizon, Zonda Telecom, verykool y Tocs, etc.
Nokia

CONTAMINACIÓN ELECTROMAGNÉTICA
La contaminación electromagnética, también conocida como electropolución, es la contaminación producida por las radiaciones del espectro electromagnético

37

generadas por equipos electrónicos u otros elementos producto de la actividad humana. Numerosos organismos como la Organización Mundial de la Salud,[] la Comisión Europea,[] la [] [] Universidad Complutense de Madrid, la Asociación Española contra el Cáncer , el Ministerio de Sanidad y Consumo de España, o el Consejo Superior de Investigaciones Científicas de España[] han emitido informes que descartan daños a la salud debido a las emisiones de radiación electromagnética, incluyendo las de los teléfonos móviles. Aunque existen algunos estudios contrarios a la opinión de estas organizaciones como el publicado en 2003 por el TNO (Instituto Holandés de Investigación Tecnológica), que afirmaba que las radiaciones de la tecnología UMTS podrían ser peligrosas,[] han sido rebatidos por otros más serios, como una investigación de la Universidad de Zúrich,[] que utilizó hasta 10 veces la intensidad utilizada por el estudio del TNO. También hay numerosos estudios que intentan asociar la presencia de antenas con diversas enfermedades.[] En resumen, es seguro vivir en un edificio con una antena de telefonía y en los que lo rodean, ya que aún no se ha podido demostrar con certeza que la exposición por debajo de los niveles de radiación considerados seguros suponga un riesgo para la salud.

LA CREACIÓN DE UN NUEVO LENGUAJE
La mayoría de los mensajes que se intercambian por este medio, no se basan en la voz, sino en la escritura. En lugar de hablar al micrófono, cada vez más usuarios (sobre todo jóvenes) recurren al teclado para enviarse mensajes de texto. Sin embargo, dado que hay que introducirlos con los botoncitos del celular, ha surgido un lenguaje en el que se abrevian las palabras valiéndose de letras y números. A pesar de que redactar y teclear es considerablemente más incómodo que conversar, cada mes se envían y reciben 30.000 millones de mensajes en todo el mundo (año 2005). El lenguaje SMS, consiste en acortar palabras, sustituir algunas de ellas por simple simbología o evitar ciertas preposiciones y demás. La Principal causa es que el SMS individual se limita a 160 caracteres, si se sobrepasa ese límite, los mensajes ya pasan a ser dobles, triples, etc., dependiendo del número de caracteres final. Por esa razón se procura comprimir el número de caracteres sin perder el entendimiento del mensaje pudiendo extenderlo bastante más por el mismo coste. Según un estudio británico, un 42% de los usuarios de 18 a 24 años los utilizan para coquetear; un 20%, para concertar citas románticas de forma moderna, y un 13%, para romper una relación. A algunos analistas sociales les preocupa que estos mensajes, con su jerigonza y sintáctica, lleven a que la juventud no sepa escribir bien. Sin embargo, otros opinan que “favorecen el renacer de la comunicación escrita en una nueva generación”. La portavoz de una editorial que publica un diccionario australiano hizo este
ortográfica

38

comentario al rotativo The Sun-Herald: “No surge a menudo la oportunidad de forjar un nuevo estilo [de escritura] [...;] los mensajes de texto, unidos a Internet, logran que los jóvenes escriban bastante más. Necesitan tener un dominio de la expresión que les permita captar el estilo y defenderse bien con el vocabulario y el registro [...] correspondientes a este género”. Algunas personas prefieren enviar mensajes de texto (SMS) en vez de hablar directamente por cuestiones de economía. De hecho, enviar un mensaje de texto cuesta menos que hablar directamente. ¿ES NOCIVA LA TELEFONÍA MÓVIL? ¿Las radiaciones que emiten las antenas de telefonía celular son perjudiciales para la salud? Un informe reciente no pudo constatar los efectos que denuncian organizaciones como STOP UMTS, de Holanda. Una investigación reciente de la Universidad de Zurich reveló que las radiaciones de las antenas de UMTS (Universal Mobile Telecommunications System) de telefonía móvil no afectan la salud de las personas. Las conclusiones se recogen del informe: "Exposición de antenas tipo estación base, UMTS, bienestar y funcionamiento cognitivo" que vino a complementar y a corregir un estudio anterior holandés. El instituto de investigación TNO señalaba en 2003 que podría existir una relación entre las emisiones de UMTS y algunos malestares físicos como mareos, picazón o dolores de cabeza. El sistema UMTS le sucede al conocido como GSM. Las mejoras técnicas que incorporó facilitan el acceso a la información en lugares remotos, como en las regiones rurales. La integración de servicios es uno de sus puntos a favor. Por ejemplo, la comunicación telefónica, la transmisión de datos informáticos o de video, son accesibles tanto para el hombre de ciudad como para el de una comunidad rural. Con esta tecnología cualquier persona en cualquier parte -donde estén emplazadas las antenas-, goza de las mismas prestaciones que le ofrecen las empresas de comunicaciones. Se dice que las telecomunicaciones inalámbricas podrían alcanzar a 2000 millones de usuarios en el año 2010. Estas expectativas contrastan con las objeciones de algunas organizaciones, como la holandesa STOP UMTS, que le achaca a las radiaciones que emanan de las antenas distribuidas en las ciudades y el campo los problemas físicos que padecen muchas personas. Las "replicaciones" del estudio de 2003, revela la investigadora Verónica Berdiñas, de IT Fundation y miembro del equipo que elaboró el informe de Zurich, "han señalado que no existe ninguna relación entre la radiación de estas antenas UMTS -en los niveles que se describen en el estudio- y el bienestar de los sujetos, ni con las funciones cognitivas". 39

El estudio sometió a prueba a dos grupos de personas, las que se describen a sí mismas como "sensibles" a los campos radioeléctricos y las que desconocen su presunta influencia en la salud. Ambos grupos permanecieron expuestos a las radiaciones a lo largo de tres sesiones de 45 minutos cada una. La intensidad de la emisión varió de la primera a la última: en la primera, la antena permaneció apagada; en la segunda, se aplicó el mismo nivel de campo eléctrico que se utilizó en el estudio holandés de 2003; y en la última, se multiplicó su intensidad por diez. "En ninguno de los dos grupos hemos podido encontrar una correlación entre lo que ellos se reportan a sí mismos y el hecho de que la antena estuviera o no funcionando, explica Berdiñas. La investigadora no desconoce, sin embargo, que el estudio en cuestión engloba un período de tiempo corto. Las afecciones, dicen los demandantes, son consecuencia de años de exposición a las radiaciones de las antenas de UMTS. Para descartar cualquier duda, los estudios de tipo epidemiológico se abocan en la actualidad a una serie de análisis a largo plazo. "De las tecnologías que se han introducido quizás ésta sea la que más sujeta está a estudios", reconoce el titular del Departamento de Electromagnetismo en la Universidad Politécnica de Madrid, José María Gil. En efecto, hay "infinidad de estudios" con animales y con cultivos celulares sobre los que se han basado los científicos para establecer los niveles de exposición. Los especialistas consultados coinciden en subrayar que las radiaciones que emiten estas antenas decrecen en la medida que nos alejamos de ellas, del orden de los 6 o 7 metros. El pequeño aparato de bolsillo, el inocente teléfono móvil que usamos con tanto entusiasmo, explica el profesor José María Gil, "nos expone a niveles bastante más altos que los que nos produce una antena grande, porque la distancia es mucho más pequeña". Verónica Verdinas agrega: "Las diferentes tecnologías varían según las frecuencias. La penetración en un cuerpo depende de la frecuencia que se esté usando: a mayor frecuencia, menos penetración en los cuerpos. Por ejemplo, la tecnología UMTS utiliza una frecuencia mayor que la GMS, con lo cual, en principio, penetraría menos en el cuerpo humano". En cualquier caso, como admite también la especialista, los estudios no han concluido. Varias organizaciones en Holanda, como STOP UMTS, subrayan que a partir de los resultados de la Universidad de Zurich no se pueden sacar conclusiones. Por el contrario, insiste, muchos otros informes arrojan resultados negativos. El ministro de salud holandés, Pieter van Geel, aseguró que no existe ningún peligro para la salud pública, porque "los investigadores suizos no encontraron diferencias significativas en el bienestar, entre aquellos que fueron expuestos a las radiaciones de una antena UMTS y aquellos que estuvieron sujetos a una 40

exposición corta”. Y sugirió que las municipalidades que se oponían a la instalación de las antenas, podrían, por tanto, levantar la suspensión. En un artículo que publica la organización STOP UMTS en su página web, se recoge la respuesta de Niels Kuster, uno de los científicos que participó del estudio de Zurich. Kuster critica la interpretación del ministro Van Geel: "Esto siempre sucede así. Nosotros hemos informado claramente sobre las limitaciones de nuestra investigación. Fue un intento de legitimar la investigación de TNO y ese intento fracasó. Cualquier otra conclusión no corresponde".

POR OTRO LADO: FLUJO DEL CALCIO Los estudios realizados que se han dedicado a determinar los efectos potencialmente adversos tanto en el ámbito biológico como en el caso de la salud humana en general son muy diversos. Es de notar que la mayoría (sino todos) los estudios se realizan con animales de laboratorio, cultivos de células o tejidos.

Aunque los campos de radiofrecuencia que no son modulados por ELF (extrema baja frecuencia) no parecen afectar el flujo del Calcio de los tejidos en general y del cerebral en particular, la modulación de baja frecuencia de RF en las intensidades de los límites precisados por las normas de seguridad, sí parecen alterarlo aunque no se encuentra dilucidado el tema aún. Por este motivo aunque existe algún indicio, no se puede señalar con certeza que las exposiciones a los campos de RF de los dispositivos para las comunicaciones celulares afecten la regulación del calcio de los tejidos nerviosos o que los efectos de este tipo, tengan alguna consecuencia para la salud. No obstante, investigaciones en curso podrían probar tales efectos biológicos.

Comunicación
41

Un modelo simple de comunicación con un emisor que transmite un mensaje a un receptor. Para otros usos de este término, véase Comunicación (desambiguación). La comunicación es el proceso mediante el cual se transmite información de una entidad a otra. Los procesos de comunicación son interacciones mediadas por signos entre al menos dos agentes que comparten un mismo repertorio designos y tienen unas reglas semióticas comunes. Tradicionalmente, la comunicación se ha definido como "el intercambio de sentimientos, opiniones, o cualquier otro tipo de información mediante habla, escritura u otro tipo de señales". Todas las formas de comunicación requieren un emisor, un mensaje y un receptor. En el proceso comunicativo, la información es incluida por el emisoren un paquete y canalizada hacia el receptor a través del medio. Una vez recibido, el receptor decodifica el mensaje y proporciona una respuesta. Origen de la comunicación El lenguaje y la escritura
Existe un fundamento psicológico que permite al ser humano aprender diferentes lenguajes. Aparentemente, el hombre comienza a expandirse desde África Oriental (homo sapiens), cuyo centro del nacimiento humano se cree está en Etiopía. De acuerdo a su evolución física y cognitiva existen 4 cambios evolutivos que darán lugar al hombre actual:

Homo habilis: El primer hombre, se diferencia del Homo Sapiens en que baja de los árboles, camina sólo con sus piernas. Era habilidoso y de considerable tamaño craneal.  Homo erectus: Comienza a fabricar mejores herramientas, muy pulidas. Descubre el fuego y su uso. Ahora le crece tanto la cabeza como el cuerpo.  Homo sapiens: Parte de África hacia las diferentes partes del mundo. Éste se moverá de Asia Central a Europa, más tarde colonizará Australia y demostrará una avanzada tecnología con la construcción de medios de navegación y métodos de orientación y localización de rutas. Así llegará al continente americano.  Homo habilis: Estará caracterizado por su aumento craneal, sus desarrolladas articulaciones y, sobre todo, por la aparición del lenguaje.

El lenguaje aparece hace 100.000 años, aunque el Homo Sapiens hubiera surgido hace 150.000 produciendo un proto-lenguaje. La última fase, el lenguaje, aparece hace 100.000 años. Cuando se determinó la articulación de sonidos, sólo faltaba unirlos con signos que los representaran.

Sociedades orales
Hasta el momento de la creación de la escritura, existía la necesidad de almacenar de alguna forma en la memoria colectiva e individual toda clase de información

42

(historias, nombres, mitos...). Para ello, se crearon mapas lingüísticos (rituales), entre los que se encuentran:

Las fórmulas: Introducción oral breve y acompañada de música, a partir de la cual se engancha una exposición extensa de todo aquello que recuerda. Se utiliza en el aprendizaje ya que resulta una fórmula fácil y sencilla.  Los nombres de lugares y personas: Los nombres propios hacen referencia a nombres de los diferentes canales y lugares, a pesar de ser limitados, son clave para memorizar qué existe en el sitio mencionado.  La poesía: Histórica, religiosa, mitológica, etc. suele ser musical, teniendo ritmos muy definidos.  Las narraciones: Históricas, personales, introducciones a historias más grandes pero que contienen mucha información histórica.  Los repertorios legales o de otra índole: Son las más raras, escasas, ya que ocupan mucha memoria.

Estas fórmulas se transmiten de boca en boca hasta la aparición de la escritura. Dentro de este grupo podemos incluir las técnicas de los chamanes que recurrían a un entrenamiento para memorizar con recursos relacionados con la memoria auditiva: ritmos, movimientos, sonidos, melodías, etc.

De la comunicación oral a la escritura
Existen en la actualidad, dos grandes teorías que intentan explicar cómo se dio el paso de una sociedad oral a una sociedad escrita. La primera, denominada Teoría de la gran línea divisoria, explica cómo las sociedades orales definen una mentalidad diferente e inferior a las sociedades en las que la escritura es la principal forma de comunicación. De esta manera creen que con la invención de la escritura, la humanidad ha dado un gran salto cualitativo muy importante, al dotarnos de procedimientos que son capaces de aumentar nuestras capacidades cognitivas. Con la escritura nuestro pensamiento se vuelve más reflexivo, más abstracto, más complejo y estructurado, y por ello la escritura crea una sociedad superior. La segunda teoría, conocida como Teoría de la continuidad niega la superioridad de la escritura frente a la oralidad y defiende la idea de que ambos tipos de comunicación, oral y escrita, son medios lingüísticos equivalentes. En esencia, ambos derivados del lenguaje tienen funciones similares, sin embargo se pueden especializar y por ello no existe una diferencia cognitiva.

Origen de la escritura cuneiforme
La escritura ha sido la acompañante necesaria en un cambio profundo de la sociedad como es el paso de la sociedad cazadora-recolectora a la sociedad agricultora-ganadora. La aparición de la escritura está ligada a la aparición de la división social. Es por ello, que las primeras escrituras aparecieron en los templos, donde se localizaba la clase sacerdotal. Los sacerdotes se encargaban de lacontabilidad y la administración de los impuestos, utilizando para ello unas tablillas de arcilla, donde el número tenía más peso que la letra. Estas tablillas suponen el 43

origen de la escritura cuneiforme y las más antiguas fueron encontradas en el templo de Uruk. Sin la escritura, los sacerdotes no habrían podido establecer su situación de privilegio y su papel organizador del pueblo. Con este tipo de escritura se formalizan las divisiones sociales, por su función sancionadora y normativa.

El origen de la escritura
El origen de la escritura no se dio de forma sincrónica en el tiempo. Estuvo localizada entre la revolución neolítica y la revolución urbana, donde conocemos 5 civilizaciones en las cuales se desarrolló la escritura:
    

Mesopotamia: Hace 5000 años, escritura cuneiforme. Egipto: Hace 4500 años. Escritura jeroglífica. El valle del río Indo: Hace 4000 años. Escritura jeroglífica. Asia': Hace 3000 años. Escritura ideográfica. Meso-americanas: Hace 1500 años.
Antes de que la escritura fuera generalizada , en el último periodo del paleolítico, el hombre ya utilizó formas de comunicación pictográfica, la cual tiene su origen en el gesto, es decir, en la mímica y no en la palabra. Un ejemplo de estas formas de comunicación gráfica lo constituyen las manos de Gargas. Estos dibujos eran símbolos que se utilizaban para cazar y que se repiten en muchas cuevas de Europa. Otro ejemplo de formas de comunicación anteriores a la escritura, son las bullae. Denise Schmandt-Besserat estudió la cerámica y encontró unas pequeñas bolas con incisiones en el exterior y que escondían toda una clase de objetos ideográficos en su interior. Las bullae funcionaron como un mecanismo de contabilidad. Se originaron en el inicio del cambio de la sociedad cazadora a la sociedad agricultora y las más antiguas tienen alrededor de 9000 años.

Nacimiento del alfabeto
Cuando la revolución urbana constituyó las primeras ciudades, las bullae fueron depurándose, apareciendo una escritura lineal y las escrituras cuneiformes se extendieron por toda la ribera oriental de la costa mediterránea. Hace aproximadamente 3500 años, un pueblo de la zona de Siria, los fenicios, caracterizados por ser navegantes comerciantes, desarrollaron una nueva forma de escritura sencilla, basada en veintidós signos de carácter alfabético y no ideográfico, es decir, que representaban sonidos de forma gráfica y eran todos consonánticos, dando lugar al Alfabeto semítico. 500 años después, el alfabeto sufrió una escisión en 4 subalfabetos: semítico meridional, cananeo, arameo y el griego arcaico. Los griegos desarrollaron las 5 vocales actuales para adaptar el nuevo alfabeto a su lengua, dando origen al primer alfabeto escrito de izquierda a derecha . Un tiempo después, se extendió por el mediterráneo y fue adoptado por los romanos, constituyéndose finalmente el latín, antecesor de las lenguas románicas.

44

Teoría de la información

Esta gráfica pertenece al modelo de comunicación desarrollado por Claude Elwood Shannon y Warren Weaveren 1949 y representa la fuente de la información, elcodificador que envía el mensaje a través del medio de comunicación o canal de comunicación, el cual podría ser interrumpido o distorsionado por el ruido (representado en el rayo que cae) y que llega a un decodificador y de este alreceptor el cual podría emitir a su vez una respuesta.

Otro esquema simple del proceso de comunicación o transmisión de la información.
En muchos casos la teoría de la comunicación suele confundirse con la teoría de la información, la cual corresponde a la teoría matemática de Claude E. Shannonque estudia la información (canales, comprensión de datos, criptografía y todo lo que se le relaciona) como magnitud física. Ésta emplea una unidad de medida de la información a la que denomina el "BIT", es decir, la menor unidad que puede aprenderse. Esta unidad de medida de la información se sustenta en la alternativa sí o no en cada determinación que pueda dar elementos para el conocimiento de los objetos. Así, por ejemplo, la sexualidad de un sujeto puede darse por un BIT, simplemente, macho o hembra. Para fijar la posición de una pieza de ajedrez sobre un tablero de 64 casillas se necesitarán al menos 6 BITS o 6 preguntas binarias. 45

Si bien la teoría de la información es útil a la teoría de la comunicación como aportante matemático y a la comprensión lógica de los procesos, dicha teoría no corresponde en concreto a la preocupación de la teoría de la comunicación, la cual analiza la vinculación de los procesos comunicativos individuales a la problemática social, así como la relación universal existente en torno a la comunicación mediática y el poder político y se apoya en el uso de lasemiología, que es el estudio de los signos, en la realidad social y se nutre de la lingüística y otras ciencias.

Puntos de vista de la teoría de la comunicación
Los siguientes son algunos puntos de vista sobre la comunicación y de la teoría de la comunicación:

Mecanicista: Este punto de vista entiende la comunicación como un perfecto transmisor de un mensaje desde un emisor hasta un receptor tal como se ve en el diagrama anterior.  Psicológico: Considera a la comunicación como el acto de enviar un mensaje a un perceptor (llamado así porque considera al receptor como sujeto de la comunicación) y en el cual las sensaciones y las ideas de ambas partes influyen considerablemente en el contenido del mensaje.  Construccionismo social: Este punto de vista, también llamado "interaccionismo simbólico", considera a la comunicación como el producto de significados creativos e interrelaciones compartidas.  Sistemática: Considera a la comunicación como un mensaje que pasa por un largo y complejo proceso de transformaciones e interpretaciones desde que ocurre hasta que llega a los perceptores.

La revisión de una teoría en particular a este nivel dará un contexto sobre el tipo de comunicación tal como es visto dentro de los confines de dicha teoría. Las teorías pueden ser estudiadas y organizadas además de acuerdo a la ontología, la epistemología y la axiología que en general son impuestas por el teórico.

Ontología: Pone la pregunta sobre el qué, exactamente, el teorista examina. Se debe considerar la verdadera naturaleza de larealidad. La respuesta, por lo general, cae dentro del campo de uno de los tres fenómenos ontológicos dependiendo de la lente con la cual el teórico mire el problema: realista, nominalista o construccionismo.  La perspectiva realista mira el mundo de manera objetiva en la creencia de que hay un mundo por fuera de nuestras propias experiencias y cogniciones.  La perspectiva nominalista mira al mundo subjetivamente en la idea de que todo aquello al exterior de las cogniciones del sujeto son únicamente nombres y etiquetas.  La perspectiva construccionista monta la barrera entre lo objetivo y lo subjetivo declarando que la realidad es aquello que creamos juntos.

46

según el modelo de Shannon y Weaver.   47 . nos señala que la realidad es vista por los medios de comunicación desde diferentes puntos de vista. Las teorías subjetivas se desarrollan por lo general para explicar o entender fenómenos del mundo social.  Modelos de comunicación Esquema en un estudio de televisión.  Canal: Es el medio físico por el que se transmite el mensaje. En los estudios epistemológicos. pero dicho término pertenece más al ámbito de la teoría de la información. Teorías de este corte son generalmente creadas para predecir fenómenos. Receptor: Es quien recibe la información.Epistemología: Pone la pregunta sobre el cómo los teóricos estudian el fenómeno escogido. el conocimiento objetivo es aquel que es el resultado de una mirada sistemática de las relaciones casuales del fenómeno. En una aproximación muy básica. 180 grados. típicamente establecidos a través de la utilización de métodos interpretativos tales como la etnografía y la entrevista. puede ser o no una persona. por lo general escogidos por el emisor. en este caso Internet hace posible que llegue a usted (receptor) el mensaje (artículo de Wikipedia). Teorías subjetivas sostienen que el entendimiento está basado en conocimientos localizados. Los estudiosos por lo general piensan que la evidencia empírica recogida de manera objetiva está más cerca de reflejar la verdad en las investigaciones. los elementos que deben darse para que se considere el acto de la comunicación son: Emisor: Es quien emite el mensaje. Este conocimiento es por lo general deducido por medio de métodos científicos. Dentro de una concepción primigenia de la comunicación es conocido como Receptor.

 Mensaje: Es lo que se quiere transmitir. un módem captara la señal analógica de la red o línea de transmisión y la convertirá en una cadena de bits. Receptor.  Destino (Destinatario) (“Destinación”). Puede ser desde una sencilla línea de transmisión hasta una  compleja red que conecte a la fuente con el destino. Un ejemplo particular de comunicación entre una estación de trabajo y un servidor a través de una red telefónica pública. un módem convierte las cadenas de bits generadas por un computador personal y las transforma en señales analógicas que pueden ser transmitidas a través de la red telefónica. Acepta la señal proveniente del sistema de transmisión y la transforma de tal  manera que pueda ser manejada por el dispositivo destino. 48 . generando señales electromagnéticas  susceptibles de ser transmitidas a través de algún sistema de transmisión. Por ejemplo. Toma los datos del receptor. Sistema de transmisión.  Elementos de la comunicación humana El objetivo principal de todo sistema es adaptarse a la comunicación. Otro posible ejemplo consiste en el intercambio de señales de voz entre dos teléfonos a través de la misma red anterior. de Transmisión o canal Receptor Destino Diagrama general a bloques Sistema fuente Sistema destino Teoría de las telecomunicaciones Transmisor. Los elementos claves de este modelo son: Fuente o Emisor (Remitente). Por ejemplo. Implica la comprensión o decodificación del paquete de información que se transfiere.Código: Es la forma que toma la información que se intercambia entre la Fuente (el emisor) y el Destino (el receptor) de un lazo informático. es intercambiar información entre dos entidades. Transforma y codifica la información. Este dispositivo genera los datos a transmitir: por ejemplo teléfonos o computadores personales.  Fuente Transmisor Sist.  Situación o contexto: Es la situación o entorno extralingüístico en el que se desarrolla el acto comunicativo.

Esto es que si se necesita intercambiar datos durante un  período. Se refiere a la necesidad de hacer un uso eficaz  de los recursos utilizados en la transmisión. se deberá decidir la cantidad y el formato de los datos que se transmiten cada vez. los cuales típicamente se suelen compartir entre una serie de dispositivos de comunicación. Las señales se deben generar no sólo considerando que deben cumplir  los requisitos del sistema de transmisión y del receptor. Para hacerse una idea de la magnitud de ella a continuación una breve explicación de algunas de las tareas claves que se deben realizar en un sistema de comunicaciones. Utilización del sistema de transmisión. Se necesita en circunstancian donde no se pueden  49 . se necesitaran ciertas convenciones además del simple hecho de establecer la conexión. Igualmente. y se debe especificar que hacer en caso de que se den ciertas contingencias. tales como. Ésta se necesitará una vez que la interfaz está establecida. Detección y corrección de errores.Aunque el modelo presentado puede parecer sencillo. deberá conocer la duración de cada elemento de señal. en realidad implica una gran complejidad. Sincronización. Las  características de la señal. En los dispositivos para el procesamiento de datos. Para que un dispositivo pueda transmitir tendrá que hacerlo a  través de la interfaz con el medio de transmisión. Gestión del intercambio. El receptor debe ser capaz de determinar cuándo comienza y cuándo acaba la señal recibida. sino que deben permitir alguna forma de sincronizar el receptor y el emisor. la forma y la intensidad. deben ser tales que permitan: 1) ser propagadas a través del medio de transmisión y 2) ser interpretada en el receptor como datos. Generación de la señal. Implemento de la interfaz. las dos partes (emisor y receptor) deben cooperar. Se deberá establecer si ambos dispositivos pueden Enlace de comunicación Estación de trabajo Módem Medio de Módem transmisión Servidor transmitir simultáneamente o si deben hacerlos por turnos.

se ve interrumpida por algún fallo. canal. No existe un iniciador en el proceso comunicativo. mensaje primario (bajo un código). pero inevitablemente la comunicación comenzó mucho antes. receptor o decodificador. Se utiliza para evitar que la fuente no sature al destino transmitiendo  datos más rápidamente de lo que el receptor pueda procesar o absorber.de dos personas desconocidas. Fuente: Es el lugar de donde emana la información. símbolo). o bien ser capaz de continuar transmitiendo desde donde se produjo la interrupción. los codifica para poder enviarlo de manera entendible -siempre que se maneje el mismo código entre el emisor y el receptor. organización) al que se destina el mensaje.  Receptor o decodificador: Es el punto (persona. la comunicación no se limita al habla o a la escritura: es un complejo proceso interminable de interacción mutua. Se utiliza cuando cierto recurso se comparte por  más de dos dispositivos.  Emisor o codificador: Es el punto (persona. ruido (barreras o interferencias) y la retroalimentación o realimentación (feed-back. al mirar a la persona a los ojos o al insinuar que se quiere hablar. El sistema de transmisión deberá garantizar que ese destino. Control de flujo. el sistema fuente deberá de alguna manera indicar a dicho recurso compartido la identidad del destino. los datos.al receptor.tolerar errores es decir. organización) que elige y selecciona los signos adecuados para transmitir su mensaje.  Recuperación. cuando la señal transmitida se distorsiona de alguna manera antes de alcanzar su destino. en conclusión: de donde nace el mensaje primario. código (reglas del signo.pero la comunicación debe ser entendida como un proceso dinámico y circular. mensaje de retorno o mensaje secundario). a lo sumo existe una instancia primaria de emisión verbal -que se confunde con el que "habló primero". la Teoría del proceso comunicativo Los elementos o factores de la comunicación humana son: fuente. al acercarse prudentemente a la distancia mínima -Proxémica. sin principio ni fin. realiza un proceso inverso al del emisor ya que en él está  50 . reciba los datos. Se utiliza cuando en una transacción de una base de datos o transferencia de un fichero. Direccionamiento y encaminamiento. y sólo ése. Podemos iniciar el acto comunicativo preguntando la hora a alguien. emisor o codificador. el contenido que se enviará. al ver a la persona. Como se puede ver. el objetivo será pues. es decir.

y el receptor activo o perceptor ya que es la persona que no sólo recibe el mensaje sino que lo percibe. Un ejemplo claro es el código que utilizan los marinos para poder comunicarse. Canal. siempre y cuando se reciba una respuesta (actitud. barrera o ruido: Cualquier perturbación que sufre la señal en el proceso comunicativo.es donde se produce el feed-back o retroalimentación. la distracción del receptor. Periódicos.También suele llamarse ruido  Retroalimentación o realimentación (mensaje de retorno): Es la condición necesaria para la interactividad del proceso comunicativo. 51 . la gramática de algún idioma. Cuando la comunicación es interpersonal -entre personas y sin ningún medio electrónico de por medio. Comprende todo aquello que es descrito por el mensaje. etc. Si no hay realimentación. el alumno que no atiende aunque esté en silencio. un Medio. los algoritmos en la informática. la alteración de la escritura en un viaje. Logrando la interacción entre el emisor y el receptor. intercambiando los roles. donde un receptor o perceptor se transforma en emisor al producir y codificar un nuevo mensaje para ser enviado al ente emisor -ahora devenido en receptor. o la distorsión de la imagen de la televisión. El mensaje es la información debidamente codificada. En este caso.  Referente: Realidad que es percibida gracias al mensaje. como una conversación cara cara (de ahí "interpersonal").  Mensaje: Es el contenido de la información (contenido enviado): el conjunto de ideas. estableciendo una conexión entre el emisor y el receptor.. en el caso de la voz. Puede ser positiva (cuando fomenta la comunicación) o negativa (cuando se busca cambiar el tema o terminar la comunicación). entonces sólo hay información mas no comunicación. Una llamada telefónica o un mensaje de texto. la afonía del hablante. el hilo telefónico. todo lo que nos rodea son signos codificados. acontecimientos expresados por el emisor y que desea trasmitir al receptor para que sean captados de la manera que desea el emisor. y es lo que comúnmente sucede en cualquier comunicación interpersonal. para combinarlos de manera arbitraria y socialmente convenida ya que debe estar codificado de una manera adecuada para que el receptor pueda captarlo. Existen dos tipos de receptor.  Interferencia.  Código: Es el conjunto de reglas propias de cada sistema de signos y símbolos de un lenguaje que el emisor utilizará para trasmitir su mensaje.  Canal: Es por donde se transmite la información-comunicación. Radio. e incluso da una respuesta. Por ejemplo: Una charla de café. Los medios de comunicación masiva -TV. lo almacena. en el caso de una conversación telefónica. Pero cuando la comunicación se realiza por medio de artefactos o instancias electrónicas o artificiales. Internet. Mejor conocido como el soporte material o espacial por el que circula el mensaje. se puede dar en cualquiera de sus elementos. se le denomina Medio.  Situación: Es el tiempo y el lugar en que se realiza el acto comunicativo. la sordera del oyente. sentimientos. Son las distorsiones del sonido en la conversación. el pasivo que es el que sólo recibe el mensaje. Ejemplos: el aire. la ortografía defectuosa.el descifrar e interpretar lo que el emisor quiere dar a conocer.se le denomina Canal. conducta) sea deseada o no.tienen por canal a un Medio.

valorativa: El emisor debe otorgarle a su mensaje la carga afectiva que el mismo demande. es decir sentimientos. De la capacidad autorreguladora y del individuo depende el éxito o fracaso del acto comunicativo Ejemplo: una crítica permite conocer la valoración que los demás tienen de nosotros mismos. en la que el emisor trata de influir sobre el estado mental del receptor para sacar ventaja. Las organizaciones.  Expresión emocional: Gran parte de los empleados.  Cooperación: La comunicación se constituye como una ayuda importante en la solución de problemas. así como proporciona la formación de hábitos. incita la motivación y necesita definitivamente de la comunicación. por ello es de suma importancia para la estabilidad emocional de los sujetos y su realización personal. se le puede denominar facilitador en la toma de decisiones. En este sentido. A través de ella se proporciona al individuo todo el caudal de la experiencia social e histórica. poseen jerarquías de autoridad y guías formales a las que deben regirse los empleados. Los teóricos han determinado 52 . el establecimiento de metas específicas. los individuos pueden establecerse una imagen de sí mismo y de los demás.Funciones de la comunicación Informativa: Tiene que ver con la transmisión y recepción de la información.  Hechos sociales como la mentira son una forma de comunicación informativa (aunque puede tener aspectos reguladores y afectivo-valorativos). En esta función el emisor influye en el estado mental interno del receptor aportando nueva información. y por el que transmiten fracasos y de igual manera satisfacciones.  Reguladora: Tiene que ver con la regulación de la conducta de las personas con respecto a sus semejantes. la retroalimentación sobre el avance hacia el logro de la meta y el reforzamiento de un comportamiento deseado.  Motivación: Lo realiza en el sentido que esclarece a los empleados qué es lo que debe hacer. Gracias a esta función. Otras Funciones de la comunicación dentro de un grupo o equipo: Control: La comunicación controla el comportamiento individual. Esta función de control además se da en la comunicación informal. habilidades y convicciones.  Axiomas de la comunicación Diversos enfoques de la comunicación humana la conciben como un ritual que los seres humanos llevan acabo desde que nacen.  Afectivo . en la medida que brinda la información requerida y evalúa las alternativas que se puedan presentar. observan su trabajo como un medio para interactuar con los demás. pero es necesario asimilarse. si se están desempeñando de forma adecuada y lo que deben hacer para optimizar su rendimiento. no todos los mensajes requieren de la misma emotividad. proceder en dependencia de ella y cambiar la actitud en lo sucedido.

antropología y escuelas de periodismo. Mientras muchos de estos se convirtieron en "departamentos de comunicación". Esta variación teorética hace difícil que se llegue a término con un campo totalizado. Los estudios sobre la comunicación suelen presentar teorías de otras ciencias sociales. existe un rango de elementos comunes que sirven para dividir las investigaciones sobre comunicación. otros tienden más hacia una perspectiva humanista y todavía otros se impulsan a sí mismos hacia la producción y la preparación profesional. La naturaleza de una relación depende de la puntuación de secuencias de comunicación entre los comunicantes. El lenguaje digital cuenta con una sintaxis lógica sumamente compleja y poderosa pero carece de una semántica adecuada en el campo de la relación. Contextos Para muchos autores y estudiosos la comunicación se divide en lo que llaman contextos o niveles.cinco axiomas de la comunicación. por lo general retienen sus raíces históricas adheriendo la mayoría de las veces a teorías del discurso de la comunicación en casos pasados y después de los medios de comunicación social. Los intercambios comunicacionales son simétricos o complementarios según estén basados en la igualdad o la diferencia 1. Algunos de estos departamentos toman una gran perspectiva social y científica. generalmente desarrolla escuelas de laretórica. tales que el segundo califica al primero y es por ende una metacomunicación. Sin embargo. lingüística. los pequeños grupos de comunicación. las Tecnologías de la información y la comunicación. sociología. cuando ocurren dentro de departamentos de psicología. las políticas y marcos legales de la comunicación. 3.UU. mientras que el lenguaje analógico posee la semántica pero no una sintaxis adecuada para la definición inequívoca de la naturaleza de las relaciones. entre muchas otras.. Los seres humanos se comunican tanto digital como analógicamente. Toda comunicación tiene un aspecto de contenido y uno de relación. 2. 4. pero que en muchas ocasiones representan historias institucionales. lastelecomunicaciones y el trabajo en otros niveles variados. La gran división entre el discurso de la comunicación y los medios masivos se vuelve complicado para un número de pequeñas subáreas de los estudios en comunicación lo que incluye la comunicación intercultural e internacional. El estudio de la comunicación en los EE. 5. Dos tipos de divisiones tienen que ver con contextos y los campos teóricos asumidos.1 también conocidos como axiomas de Paul Watzlawick: Es imposible no comunicarse. Campo teórico Una disciplina se define cuando forma parte de una estructura teorética. 53 .

Cibernética: Proceso de la información. Sociocultura: Reproducción del orden social. interacción. permanece como elemento central para los investigadores de la comunicación. 3. es constante a través de las "tradiciones" y "niveles" de la teoría de la comunicación. las teorías dentro de cada una de las siete "tradiciones" de la teoría de la comunicación que Robert Craig sugiere. Esto encuentra algunas representaciones en la escuela de comunicación de Toronto en lo que se conoce como teoría media representada en la obra de Innis. Craig encuentra que estas siete tradiciones claramente identificables se definen una en contra de la otra y a la vez permanecen cohesionadas en aproximaciones que describen el comportamiento de la comunicación. Algunos campos de la comunicación y sus teorías Producción del mensaje: Teoría constructivista y teoría de la asamblea. 1. Parece ser que el modo en el cual individuos y grupos utilizan las tecnologías de la comunicación. Como una ayuda taxonómica. Estas "siete tradiciones" consisten en las siguientes:2 Retórica: Práctica del arte discursivo. estas etiquetas ayudan a organizar la teoría por sus asumidos y ayuda a los estudiosos a entender porqué algunas teorías parecen inconmensurables. Mientras los teóricos de la comunicación utilizan con frecuencia estos dos tipos de aproximaciones. tienden a reforzarse unas a otras y retienen el mismo terreno de asumidos epistemológicos y axiológicos. Fenomenología: Experiencia de la "otredad" y el diálogo. Sociopsicología: Expresión. es que la comunicación como herramienta primaria definida de acuerdo a su herramienta permanece sólo a las afueras de la teoría de la comunicación. Semiótica: Mediación intersubjetiva a través de signos. 4. parece ser que olvidan o marginan el lugar del lenguaje y las máquinas de la comunicación como las tecnologías de la comunicación. tal como es expuesta porVygotsky.   54 . 2. Asumidos Otro modo de dividir los campos de la comunicación enfatiza en los asumidos que están a la base de teorías particulares. modelos y aproximaciones. Mientras estas aproximaciones tienden también a tener sus divisiones institucionales básicas. e influencia crítica y discurso reflexivo. pero inevitablemente algunas teorías y conceptos pasan de una área a otra o encuentran su sitio definitivamente. McLuhan y otros. 6. La idea.Estos "niveles" de comunicación ofrecen algunos modos de agrupar las teorías de la comunicación. 5. La idea que rodea esto y en particular el lugar de la persuasión. Proceso de la información: Teorías de la elaboración de preferencias y teoría de la inoculación.

todo un juego de significados.  Desarrollo de las relaciones: Teoría de la reducción de incertezas y teoría de la penetración social. Luís Ramiro Beltrán.3  Escuelas "This is the enemy" ("Este es el enemigo"). Una Biblia es atravesada por una mano con el símbolo nazista.  Procesos de los medios masivos y sus efectos: Teoría cognitiva social y teoría de usos y gratificaciones.  Relaciones en proceso: Teoría de los sistemas de relación y dialéctica relacional. Para una lista de los teóricos de la comunicación asociados a las escuelas europea y estadounidense. Las escuelas de la teoría de la comunicación pueden dividirse en sentido general en la escuela europea. peruana. producto del desarrollo de la Escuela de comunicación estadounidense durante la II Guerra Mundial. visite este enlace.  Cultura: Teoría de los códigos discursivos y teoría de la conservación del rostro. José Manuel Calvelo Ríos es el creador del modelo teórico de comunicación. Manuel Calvelo Ríos. Teóricos de la comunicación El teórico brasileño Paulo Freire. boliviano.  Juan Díaz Bordenave. caricatura de André Koehne . brasileño. paraguayo. Rosa María Alfaro. 1941.  Pequeños grupos: Teoría funcional y teoría de la convergencia simbólica.  Paulo Freire.  Medios masivos y sociedad: Teoría de la agenda establecida y teoría de la espiral del silencio.    55 . Especialmente aquellos que han contribuido a la formación de la Escuela Latinoamericana de Comunicación y a la llamada Teoría Crítica de la Comunicación Española.Discurso e interacción: Teoría de los actos discursivos y administración coordinada del significado.  Organizacional: Teoría de la estructura y teoría del control coercitivo. la escuela estadounidense y la escuela latinoamericana.propaganda estadounidense antinazi destinada a promover el rechazo contra el sistema nazi.

 Héctor Schmucler. argentino. antropólogo y filósofo. Por otra parte.  Daniel Prieto Castillo. mexicano. como la psicología. teórico de la comunicación español. la antropología o la lingüística. su riqueza y su validez está dada por los diferentes puntos de vista que reúne en torno a la discusión de una situación particular. Puede ser considerada una disciplina moderna. es uno de los escritores más prolíferos en el continente. argentino. teórico del derecho de la comunicación español.    Ciencias de la comunicación La existencia de las denominadas ciencias de la comunicación presupone dar a la comunicación una entidad autónoma y un campo de investigación propio en el conjunto del saber. semiólogo argentino.Néstor García Canclini. el análisis político. argentino. el desarrollo de estas ciencias ha ido de la mano con el desarrollo de las tecnologías y de los medios de transmisión de información. mexicano. argentino.  Fernando Reyes Matta.  Armand Mattelart. Daniel Hernández.  Antonio Pasquali. chileno. venezolano. Es posible así hablar de una pragmática de la comunicación. belga. argentina. Es decir. economista político de la comunicación español. lasociología. producto de la reflexión multidisciplinaria en torno a este fenómeno. grupal (comunidades).  Sandra Massoni. o si por el contrario es un ámbito concreto del conocimiento al que disciplinas ya consolidadas tratan de estudiar. nacido en Ávila. semiólogo. social y cultural.  José María Desantes Guanter. España está nacionalizado enColombia. en el que concurren diversas ciencias para explicar el fenómeno desde puntos de vista concretos. Ciencias sociales La comunicación es un proceso de interrelación entre dos o más seres vivos o entidades donde se transmite una información desde un emisor que es capaz de codificarla en un código definido hasta un receptor.  Manuel Martín Serrano. El problema que cabe plantearse es si la comunicación es una disciplina como tal. nacionalizado en Chile en donde desarrolló sus investigaciones especialmente.  Carlos Monsiváis. el cual decodifica la 56 . que tiene su objeto de estudio en el proceso de comunicación afectado de manera individual (personas). Jesús Martín-Barbero.  Washington Uranga.  Eliseo Verón.  Enrique Bustamante Ramírez. puede considerarse la comunicación como un campo de estudios transversal.

Etimológicamente.  Crítica mediática  Redacción periodística. lo interpreta y lo devuelve al emisor originario. que puede traducirse como "poner en común.  Realización y producción audiovisual. Publicidad  Teoría de la publicidad y de las Relaciones Públicas. Comunicación y Cultura  Política de la comunicación  Comunicación Organizacional o Corporativa 57 . se torna bivalente cuando el receptor logra codificar el mensaje.  Historia de los medios de comunicación.mensaje . teniendo connotaciones propias de la ciencia social de que se trate. Lengua y literatura.información recibida. Análisis social de la comunicación La comunicación como disciplina social que analiza los contenidos.  Narrativa audiovisual. compartir algo". La comunicación es de suma importancia para la supervivencia de especies gregarias. quien ahora se tornará receptor. la palabra comunicación deriva del latín "communicare". todo eso en un contexto determinado. Se considera una categoría polisémica en tanto su utilización no es exclusiva de una ciencia social en particular. pues la información que ésta extrae de su medio ambiente y su facultad de transmitir mensajes serán claves para sacar ventaja del modo de vida gregario. El proceso de comunicación emisor . características y canales a través de los cuales se da la comunicación incluye las siguientes subdisciplinas:       Análisis del discurso y pragmática. Comunicación audiovisual y mass media.receptor.  Semiótica de la Comunicación y de la publicidad.  Industrias culturales. Estructura de la información y la comunicación.

Educación a distancia. Los satélites artificiales geoestacionarios que están posicionados sobre el ecuador de la superficie terrestre. Radiodifusión (Televisión comercial. Televisión 58 . En los últimos años.Comunicación Satelital Este documento tiene como objetivo dar a conoces si es buena o mala la comunicación satelital y conocer sus ventajas y desventajas. la tecnología satelital ha recobrado gran importancia en el terreno de las comunicaciones. principalmente en las áreas como: Internet. Televisión corporativa. el cual empieza con una breve descripción de lo que es la tecnología satelital para luego profundizar con en los beneficios y contrastes. La función de los satélites de comunicación será muy importante. durante los siguientes 10 años. son indispensables para la comunicación en casi todos los puntos de la tierra.

y manchas solares). Telefonía (Internacional. En este libro. la interferencia de radio y microondas.Directa al Hogar. se inició en 1869. selvas y polos glaciares ya no serán un obstáculo para las comunicaciones gracias a la tecnología satelital. y el debilitamiento de las señales debido a fenómenos metereológicos (lluvias intensas. o sumamente costosa. las ventajas son mayores. propulsores de múltiples 59 . sin embargo. Prácticamente a partir de los siguientes años. océanos. pero le imprime al proyectil una velocidad superior a la pretendida. Aunque las transmisiones satelitales también tienen algunas desventajas como las demoras de propagación. El cuento. Calculó que la velocidad orbital requerida para una órbita mínima alrededor de la Tierra es aproximadamente 8 km/s y que se necesitaría un cohete de múltiples etapas que utilizase oxígeno líquido e hidrógeno líquido como combustible. La idea reaparece en Los quinientos millones de la Begún (1879) de Julio Verne. y Televisión por cable). lo que lo deja en órbita como un satélite artificial. rural). Los satélites artificiales proporcionarán cobertura a regiones donde la comunicación por redes terrestres es prácticamente imposible. cubriendo todos los niveles en el cual se ve reflejado los avances. Las barreras físicas que apartaban zonas enteras de los cinco continentes. nieve. Durante su vida. publicado por entregas en Atlantic Monthly. que es el primer tratado académico sobre el uso de cohetes para lanzar naves espaciales. Por ejemplo.[1] [2] El objeto del título se trataba de una ayuda para la navegación pero que por accidente fue lanzado con personas en su interior. como desiertos. montañas. Antecedentes históricos La primera representación ficticia conocida de un satélite artificial lanzado a una órbita alrededor de la Tierra aparece en un cuento de Edward Everett Hale. Pero asiendo un análisis profundo y minucioso se deja ver que tecnología satelital es superior en muchos aspectos a comparación de la tecnología terrestre o de conexión aunque también tiene desventajas la cual no pose la tecnología de red. desde hace 5 años Edusat desarrolla programas de alfabetización a distancia en todo el país. The Brick Moon (‘la luna de ladrillos’). se trata de un resultado inintencionado del villano al construir una pieza de artillería gigante para destruir a sus enemigos. en el caso del sector educativo. publicó más de 500 obras relacionadas con el viaje espacial. no habrá un punto en la tierra sin la posibilidad de comunicación. el ruso Konstantín Tsiolkovski publicó La exploración del espacio cósmico por medio de los motores de reacción. En 1903. y Telemedicina.

En 1928. el Proyecto RAND presentó el informe Preliminary Design of an Experimental World-Circling Spaceship (Diseño preliminar de una nave espacial experimental en órbita). En mayo de 1946. Los satélites artificiales nacieron durante la guerra fría. un plan para progresar hacia el espacio y mantener presencia humana permanente. el escritor británico de ciencia ficción Arthur C.etapas.der Raketen-motor (El problema del viaje espacial . Das Problem der Befahrung des Weltraums . 60 . También describió el uso de naves orbitales para observaciones pacíficas y militares y como se podrían utilizar las condiciones del espacio para realizar experimentos científicos. escotillas para salir de una nave en el espacio y un sistema biológico cerrado para proporcionar comida y oxígeno a las colonias espaciales.. cuando los científicos comenzaron a utilizar los cohetes capturados V-2 alemanes para realizar mediciones de la atmósfera. Potočnik diseñó una estación espacial y calculó su órbita geoestacionaria. Herman Potočnik publicó su único libro. Clarke. También profundizó en las teorías sobre máquinas voladoras más pesadas que el aire.. en el cual se decía que «Un vehículo satélite con instrumentación apropiada puede ser una de las herramientas científicas más poderosas del siglo XX. Historia de los satélites artificiales Satélite ERS-2.el motor de cohete). También sugirió que tres satélites geoestacionarios proporcionarían la cobertura completa del planeta. La era espacial comenzó en 1946. trabajando de forma independiente en mucho de los cálculos que realizaban los hermanos Wright en ese momento. que pretendían ambos llegar a la luna y a su vez lanzar un satélite a la órbita espacial. señalando los beneficios de la comunicación global de alta velocidad. los científicos utilizaban globos que llegaban a los 30 km de altitud y ondas de radio para estudiar la ionosfera. estaciones espaciales. entre los Estados Unidos y La Union Soviética.[4] Antes de ese momento. lo que permitía realizar mediciones de la presión. El libro describía satélites geoestacionarios y discutía sobre la comunicación entre ellos y la tierra utilizando la radio pero no sobre la idea de utilizarlos para comunicación en masa y como estaciones de telecomunicaciones. En 1945. densidad y temperatura hasta una altitud de 200 km. las posibles órbitas y otros aspectos para la creación de una red de satélites. Clarke concibió la posibilidad para una serie de satélites de comunicaciones en su artículo en Wireless World[] Versión facsímil del artículo Extra terrestrial relays por Arthur C. Desde 1946 a 1952 se utilizó los cohetes V-2 y Aerobee para la investigación de la parte superior de la atmósfera.». La realización de una nave satélite produciría una repercusión comparable con la explosión de la bomba atómica. Clarke examinó la logística de un lanzamiento de satélite.

En 1954. El 29 de julio de 1955. impactan con la Tierra. lanzó el primer satélite artificial de la humanidad. Tras la presión de la Sociedad Americana del Cohete (ARS). Esto se convirtió en el Proyecto Vanguard. la Unión Soviética. se adelantara a Estados Unidos en dicha carrera. En 1962 se lanzó el primer satélite de comunicaciones activos. La SSN (Red de Vigilancia Espacial) ha estado rastreando los objetos espaciales desde 1957. como los programas Sputnik 2 y 3. sin querer. Este programa fue seguido por otros logros rusos. Con el Sputnik. Los objetos pueden pesar desde varias toneladas. Desde entonces.000 objetos orbitando sobre la Tierra y mantiene su rastreo sobre unos 8. creando el primer enlace televisivo internacional. la perra llamada Laika. política y de propaganda.Estados Unidos había considerado lanzar satélites orbitales desde 1945 bajo la Oficina de Aeronáutica de la Armada. la Casa Blanca anunció que los Estados Unidos intentarían lanzar satélites a partir de la primavera de 1958. como etapas de cohetes. El 31 de julio.000 objetos de fabricación humana. los soviéticos anunciaron que tenían intención de lanzar un satélite en el otoño de 1957. el interés militar aumentó y a comienzos de 1955 la Fuerza Aérea y la Armada estaban trabajando en el Proyecto Orbiter. El hito ruso que cambió al mundo La Unión Soviética. demostrando el éxito alcanzado por los científicos soviéticos. logrando que la Unión Sovietica. liderada por Rusia. la Unión Sovietica logró colocar en órbita el primer animal en la historia. El resto entran de nuevo en la atmósfera donde se desintegran o si resisten. la SSN ha registrado más de 26. El Proyecto RAND de la Fuerza Aérea presentó su informe pero no se creía que el satélite fuese una potencial arma militar. hasta sólo 61 . sino más bien una herramienta científica. debido al temor provocado en la población estadounidense ante el gran adelanto tecnológico desarrollado por los soviéticos. el día 4 de octubre de 1957. Este programa fue llamado Sputnik. que evolucionaría para utilizar un cohete Jupiter-C en el lanzamiento de un satélite denominado Explorer 1 el 31 de enero de 1958. el Secretario de Defensa afirmó: «No conozco ningún programa estadounidense de satélites». Cabe señalar que en el Sputnik 2. desde el Cosmódromo de Baikonur. la Fundación Nacional de la Ciencia (NSF) y el Año Geofísico Internacional. marcando con ello un antes y después de la carrera espacial. emitió unas señales radiales en forma de pitidos. En 1960 se lanzó el primer satélite de comunicaciones: el Echo I era un satélite pasivo que no estaba equipado con un sistema bidireccional sino que funcionaba como un reflector. el Telstar I. provocó una sicosis colectiva en los Estados Unidos. tras el lanzamiento del Sputnik I. el cual al momento de colocarse exitosamente en órbita.

Si el satélite esta girando en la dirección opuesta a la rotación de la Tierra o en la misma dirección. Se hace mención que una réplica idéntica. SATELITES GEOESTACIONARIOS Los satélites geoestacionarios o geosíncronos son satélites que giran en un patrón circular. mientras que el resto son chatarra espacial. la órbita se llama órbita progrado. ESPACIAMIENTO Y ASIGNACIONES DE FRECUENCIA Hay dos clasificaciones principales para los satélites de comunicaciones: hiladores (spinners) y satélites estabilizadores de tres ejes. Una gran ventaja de los satélites orbitales es que los motores de propulsión no se requieren a bordo de los satélites para mantenerlos en sus órbitas respectivas. Una ventaja obvia es que están disponibles para todas las estaciones de la Tierra. Los satélites no síncronos giran alrededor de la Tierra en un patrón elíptico o circular de baja altitud. Por lo tanto los satélites no síncronos se tienen que usar cuando están disponibles. lo cual puede ser un corto periodo de tiempo. 100% de las veces. utilizan el movimiento angular de su cuerpo giratorio para proporcionar una estabilidad de giro. como 15 minutos por órbita. El tiempo de órbita de un satélite geosíncrono es de 24 h. y no permanecen estacionarios en relación a ningún punto particular de la Tierra. Consecuentemente permanecen en una posición fija con respecto a un punto específico en la Tierra. Con un estabilizador de tres ejes. dentro de su sombra. Los satélites espinar. CLASIFICACIONES ORBITALES. con una velocidad angular igual a la de la Tierra. los satélites no síncronos están alejándose continuamente o cayendo a Tierra. y después unir su antena al satélite y localizarlo cuando pasa por arriba. Otra desventaja de los satélites orbitales es la necesidad de usar un equipo costoso y complicado para rastreo en las estaciones terrestres. la órbita se llama órbita retrograda. Cada estación terrestre debe localizar el satélite conforme esta disponible en cada órbita. Aproximadamente el 7% de los objetos espaciales (unos 560 satélites) están en funcionamiento. hasta el momento. se requieren de dispositivos de propulsión sofisticados y pesados para mantenerlos fijos en una órbita. Sputnik SATELITES ORBITALES Los satélites mencionados. del famoso se encuentra en el vestíbulo principal del edificio de las Naciones Unidas. igual que la Tierra. pero a una velocidad angular menor a la de la Tierra. en la ciudad de Nueva York. Una desventaja obvia es que a bordo. son llamados satélites orbitales o no síncronos. el cuerpo permanece fijo en 62 . desarrollada en Rusia. Consecuentemente. como símbolo del desarrollo tecnológico alcanzado por los humanos. La sombra de un satélite incluye todas las estaciones de la Tierra que tienen un camino visible a él y están dentro del patrón de radiación de las antenas del satélite.unos kilogramos. Si el satélite esta girando en la misma dirección de la rotación de la Tierra y a una velocidad angular superior que la de la Tierra.

MODELOS DE ENLACE DEL SISTEMA SATELITAL Esencialmente. se requieren de 3 a 6º de separación espacial dependiendo de las variables establecidas anteriormente. deben estar lo suficientemente separados en el espacio para evitar interferir uno con otro.300 millas. Entre mas alta sea la frecuencia de la portadora. esta banda también se usa extensamente para los sistemas de microondas terrestres. en un área específica en el espacio. La mayoría de los satélites domésticos utilizan la banda 6/4 GHz. mientras que el subsistema interno proporciona una estabilización de giro. La posición en la ranura depende de la banda de frecuencia de comunicación utilizada. en una órbita geoestacionaria. un sistema satelital consiste de tres secciones básicas: una subida. más comunes. • Frecuencia de la portadora de RF. dentro de un arco específico. Los satélites trabajando. Las frecuencias de la portadora. es el transmisor de estación terrena. • Potencia de la portadora de transmisión. Los satélites geosíncronos deben compartir espacio y espectro de frecuencia limitados. Desafortunadamente. • Técnica de codificación o de modulación usada. El modulador de IF se 63 . o interferencia con enlaces de microondas establecidas. casi o en la misma frecuencia. un filtro pasa-bandas de salida). son las bandas 6/4 y 14/12 GHz. Se debe tener cuidado cuando se diseña una red satelital para evitar interferncia de. más pequeño es el diámetro requerido de la antena para una ganancia específica. arriba del Ecuador. • Límites aceptables de interferencia. Diferentes frecuencias de subida y de bajada se usan para prevenir que ocurra repetición. La separación espacial requerida depende de las siguientes variables: Ancho del haz y radiación del lóbulo lateral de la estación terrena y antenas del satélite. un convertidor de microondas de IF a RF. aproximadamente a 22.relación a la superficie de la Tierra. Modelodesubida El principal componente dentro de la sección de subida satelital. Hay un límite realista del número de estructuras satelitales que pueden estar estacionadas. un amplificador de alta potencia (HPA) y algún medio para limitar la banda del último espectro de salida (por ejemplo. • Generalmente. Un típico transmisor de la estación terrena consiste de un modulador de IF. usadas para las comunicaciones por satélite. El primer número es la frecuencia de subida (ascendente) (estación terrena a transponder) y el segundo numero es la frecuencia de bajada (descendente) (transponder a estación terrena). un transponder satelital y una bajada.

El convertidor de RF a IF es una combinación de filtro mezclador /pasa-bandas que convierte la señal de RF recibida a una frecuencia de IF. Este transponder es un repetidor de RF a RF. Nuevamente. ESA (Programa MARECS) e INTELSAT (Programa ISV-MCP). El convertidor (mezclador y filtro pasa-bandas) convierte la IF a una frecuencia de portadora de RF apropiada.convierte la IF convierte las señales de banda base de entrada a una frecuencia intermedia modulada en FM. Una desventaja de usar un ISL es que el transmisor y receptor son enviados ambos al espacio. semejantes a los que se usan en los repetidores de microondas. 4. Introducción. MARISAT y MARECS fueron los precursores de los servicios de demostración y el MCP posibilitó comunicaciones marítimas mediante la incorporación de un módulo especial para esa función en la serie INTELSAT V-A (modificación de la serie V). dicho módulo era similar al ofrecido por MARISAT. fue posible gracias a la intervención de varias fuentes como COMSAT (Programa MARISAT). Consecuentemente la potencia de salida del transmisor y la sensibilidad de entrada del receptor se limitan. tal como un amplificador de diodo túnel o un amplificador paramétrico. Esto se realiza usando enlaces cruzados entre satélites o enlaces intersatelitales (ISL). COSPAS-SARSAT. Transponder Un típico transponder satelital consta de un dispositivo para limitar la banda de entrada (BPF). un traslador de frecuencias. Modelodebajada Un receptor de estación terrena incluye un BPF de entrada. Enlacescruzados Ocasionalmente.1.2. comenzando en 1982. Otras configuraciones de transponder son los repetidores de IF. con poco ruido. un amplificador de potencia de bajo nivel y un filtro pasa-bandas de salida. 4. un amplificador de bajo ruido de entrada (LNA). Inmarsat y otros sistemas de satélites. El HPA proporciona una sensibilidad de entrada adecuada y potencia de salida para propagar la señal al transponder del satélite. El LNA es un dispositivo altamente sensible. el BPF limita la potencia del ruido de entrada al LNA. 64 . en PSK o en QAM. Los HPA comúnmente usados son klystons y tubos de onda progresiva. y de banda base. La primera serie de satélites usados por INMARSAT. hay aplicaciones en donde es necesario comunicarse entre satélites. un LNA y un convertidor de RF a IF. 4.

the International Telecommunication Union (ITU). Participantes.2. Introducción. the International Civil Aviation Organization (ICAO).4. 14 proveedores de segmentos terrestres. the International Radio Maritime Committee (CIRM) and the International Federation of Air Line Pilots Associations (IFALPA). Hay 28 países y organizaciones participantes en el funcionamiento del sistema. entre ellos están las 4 partes del acuerdo COSPAS-SARSAT (Canadá. Los satélites de INMARSAT III cuentan con un sistema SAR (Búsqueda y Rescate) a bordo. 4.2. 65 . the International Chamber of Shipping (ICS). los países adicionales están en proceso de integración. COSPAS-SARSAT es un sistema internacional de búsqueda y rescate consistente en una constelación de satélites con cobertura global dispuestos en órbita polar (entre 800 y 1000 Km de altitud) y en una red de estaciones terrestres que envían señales de alerta o informaciones de localización a las autoridades encargadas de las labores de rescate ya sea por tierra. esta información se envía al Centro de Control de Misiones (MCC) que se encarga de transmitir la posición y otras informaciones pertinentes al Centro de Coordinación de Rescates más apropiados (RCC). Estados Unidos y el propio COSPAS soviético. Radiobalizas de localización personal (PLBs).3. Francia. Funcionamiento.2. El sistema. Los satélites retransmiten las señales de alerta a estaciones terrestres denominadas LUTs(Local User Terminal) donde se procesa y determina la localización geográfica del accidente. 4. los satélites COSPASSARSAT reciben señales de alerta emitidas por: • • • Radiobalizas marítimas de emergencia e indicadoras de posición (EPIRBs).2. Actuando como repetidores de comunicaciones. Francia.2. Nace de la unión SARSAT (Search And Rescue Satellite-Aided Tracking) y su homólogo soviético COSPAS (acrónimo ruso de Sistema Espacial para la Búsqueda de Buques en Peligro). Este programa conjunto está esponsorado por Canadá (pionera en 1982). Transmisiones aéreas de localización de emergencia (ELTs).1.4. Las organizaciones son the International Maritime Organization (IMO). Rusia y Estados Unidos). el sistema COSPAS-SARSAT es actualmente el máximo exponente en lo que a búsqueda y rescate vía satélite se refiere. 8 países usuarios y 2 organizaciones participantes. mar o aire. 4.

5 y 406 MHz.2. 4. La configuración del sistema comprende cuatro satélites.UU.5 y 406 MHz apoyados por Canadá y Francia. Los satélites. Accidentes terrestres: 284 personas en 123 sucesos SAR. 4.5.3. el sistema de 121.2. Nuevos desarrollos.5 MHz se utilizó en el resto de los casos. de altitud en órbita polar y equipados con instrumental SAR a 121.La velocidad y precisión de estas comunicaciones incrementa significativamente las posibilidades de supervivencia de las víctimas del accidente en cuestión. respecto a las LUTs cabe destacar la existencia de 29 operativas distribuidas en 17 países y 4 bajo test en 4 países. Los satélites soviéticos están situados en órbita polar a 1000 Km. El concilio COSPAS-SARSAT está considerando el desarrollo del sistema GEOSAR con satélites de búsqueda y rescate en órbita geoestacionaria que incrementaría el potencial de los ya existentes en órbita polar. 4.7. Accidentes marítimos: 3633 personas en 922 sucesos SAR. dos COSPAS y dos SARSAT. y por tanto. Los satélites obtienen imágenes del planeta barriendo zonas con un haz de 4000 Km de ancho. ITT. Resultados. Hay 14 MCCs operativos situados en 14 paises y 6 MCCs bajo test en 6 paises. de altitud y están equipados con instrumental SAR (Búsqueda y Rescate) a 121.6. GPS.2. De hecho. Se ha desarrollado un D&E (Demostración y Evaluación) de GEOSAR . 4. Global Navigation Satellite System) totalmente independiente del sistema GPS (EE. constituiría una alternativa (civil) a ellos. ha señalado que un sistema global de navegación civil espacial puede ser desarrollado por menos de un 66 . el contratista de Inmarsat. Los Estados Unidos contribuyen con dos satélites meteorológicos NOAA (National Oceanic and Atmospheric Administration) situados a 850 Km.) y GLONASS (Rusia). Inmarsat pretende crear un sistema de navegación (GNSS. Desde Septiembre de 1982 hasta Junio de 1995 el sistema COSPASSARSAT contribuyó al rescate de 5541 personas en 1800 sucesos SAR: • • • Accidentes aéreos: 1624 personas en 755 sucesos SAR. Cada satélite da una vuelta completa a la Tierra en 100 minutos aproximádamente a una velocidad de 7Km por segundo. El sistema de 406 MHz fue utilizado en 500 de estos incidentes (2193 personas rescatadas).

42 MHz) con una secuencia directa pseudoaleatoria con modulación de espectro ensanchado de la misa familia de GPS que llevará la información de integridad además de la de navegación. Los satélites de INMARSAT III operarán a la misma frecuencia que la señal C/A (código que permite un posicionamiento rápido del receptor pero con precisión media SPS) del GPS (1575. ICO) incluirán antenas separadas. se comportarán como repetidores con lo que se simplificarán los circuitos del satélite y la información de integridad podrá ser actualizada en tiempo real. Los pasos a seguir hasta constituir la GNSS son los siguientes: 1. pero no llegará a sustituir al GPS. En los satélites Inmarsat-3 se incluye un transpondedor separado que gestiona las señales GPS. • Ancho de banda nominal del repetidor de 2 MHz para poder transmitir la señal de espectro ensanchado modulada con código C/A a la frecuencia de 1. 3. • Estabilidad de las características de retardo de grupo del sistema de modo que pueda ser calibrado para su uso en navegación. Las estaciones terrenas de enlace con el satélite serán las mismas que proporcionan los servicios de comunicaciones móviles y son operadas por asociaciones que integran INMARSAT (como Comsat) que será responsable de los satélites. transpondedores y relojes atómicos así como otro instrumental necesario para proveer una amplia gama de servicios de navegación. la tercera generación de Inmarsat se encarga de la integridad del sistema GPS mediante la técnica GIC (GPS Integrity Channel) . Concretamente.millardo de dólares. En un tercer paso. una pequeña cantidad comparada con el coste del sistema GPS (6-10 millardos de dólares). Lo complementa.023 MHz. Requisitos del repetidor del satélite: Los requisitos del repetidor del satélite son tres: PIRE de 28 dBW en el haz de cobertura global para que la potencia de la señal recibida sea semejante a la señal de los satélites GPS. aumentando la integrabilidad de este sistema. para lo que el uso de satélites geoestacionarios y los satélites de INMARSAT serán los encargados de llevarla a cabo. 2. está basada en una red terrena que monitoriza los satélites y transmite a los usuarios los resultados. Los 12 satélites del proyecto 21 de Inmarsat (Inmarsat-P. Veamos el primer paso dado por Inmarsat para establecer una GNSS propia a partir de los satélites de Inmarsat 3. se constituirá la GNSS independiente de GPS. • 67 .

¿Como "se mueven" los satélites? Los actuales satélites con los que podemos radioaficionados tienen dos tipos de órbita: circular y elíptica. Su nivel es elemental e introductorio y es muy probable que quién desee operar algún satélite deba de consultar otras fuentes. El radioaficionado "B" la recibe y le contesta. ¿Que es un satélite? En su concepción más sencilla. 73s de XE1KK. Su principal diferencia con sus equivalentes terrestres el que vuelan y el que al volar se mueven. La creencia a que operar satélites es complejo y caro no es necesariamente cierta: hay satélites que podemos trabajar sin tener que estudiar el tema por meses ni contar con equipo sofisticado. El satélite la amplifica y la retransmite inmediatamente. Es la mas común y conocida de las órbitas. Presentación Los satélites de radioaficionado son una de las áreas de la radioafición que en México menos se practica. Al usar INMARSAT III como repetidor se produce un desplazamiento Doppler adicional debido al enlace de la estación terrena con el satélite. 3. Aunque parezca difícil de creer en la mayoría de nuestros cuartos de radio existen los equipos necesarios para iniciarse en este campo de la radioexperimentación. para que la señal recibida sea compatible con la señal GPS se debe compensar en tiempo real el enlace de subida al satélite adelantando la señal de reloj una cantidad igual al retardo del enlace de subida y se desplaza ligeramente la frecuencia de la portadora. ¿Como funciona un satélite? Un radioaficionado "A" emite una señal que es recibida por el satélite. y quizá simplista. 1. La presente es una lista de preguntas básicas sobre la operación satelital con sus correspondientes respuestas. 2. mismas que se citan al final del documento. la comparación de los retardos producidos en los dos enlaces se usa para compensar el retardo de propagación ionosférica en el enlace de subida. este método de generar una señal de reloj virtual en el satélite se denomina Generación de Señal en Bucle Cerrado . experimentar los Los satélites con órbitas circulares se mantienen mas o menos a la misma distancia de la tierra pero su posición respecto a la superficie varia cada momento. tiene la característica que pueden permanecen más tiempo viendo un mismo lugar de la tierra y su órbitas son mucho más largas.Los satélites INMARSAT III poseen un enlace de banda C a banda L y otro de banda C a banda C de baja potencia. los satélites de radioaficionados son repetidoras voladoras. Por su parte los satélites de órbitas elípticas. Así inicia un comunicado por satélite. 68 .

000 Km. ¿Como funcionan los satélites de órbita elíptica? Los satélites de órbita elíptica tienen otras características. ¿Como se donde está el satélite?. sur de Estados Unidos. La duración de cada pase varia dependiendo de la órbita pero en promedio podemos decir que entre 10 y 18 minutos están disponibles para que los operemos. 6. contactar otras estaciones que estén dentro de esa sombra. La duración del satélite en esa posición en muy breve ya que se mueven a gran velocidad. Hay diversos y entre ellos destacan el InstanTrack y el QuickTrack. ¿cuando pasará? La predicción de las órbitas satelitales se hace por lo general con ayuda de una computadora personal. que es de 90 grados. de altura así que el área que pueden cubrir equivale a toda la República en los más bajos o una área equivalente a México. Si consideramos que hay más de 15 satélites de órbita baja nos daremos cuenta que hay más tiempo de satélites que tiempo para hacer radio. No es la única opción pero hoy por hoy es la más fácil.4. ¿Que cobertura tiene un satelite de orbita baja? Al igual que en la repetidoras tradicionales a mayor altitud mayor cobertura. A diferencia de los satélites de órbita baja casi no se nota el efecto dopler. ¿Cuantas veces pasa un satélite sobre nosotros? Un satélite de orbita baja pasa por arriba de un determinado punto. en principio. Su órbita tiene dos puntos claves: el más cercano se le conoce como perigeo y el más lejano como apogeo. solo se da cuando el satélite pasa exactamente sobre nosotros. parte del Caribe y norte de Colombia en los de mayor altura. Tenemos pues más de una hora diaria para usarlo. Los programas no solo indican y grafican cuando el satélite pasará sino que dan otros datos importantes como la elevación o altitud sobre el horizonte y el azimut o posición respecto a los cuatro puntos cardinales. La sombra mantiene su diámetro pero también se está moviendo. Esta área o sombra del satélite permite que cualquier estación que se encuentre dentro de ella pueda. Los satélites de órbita baja se encuentran entre 400 y 1400 Km. entre 4 y 6 veces al día. ¿Cual es la mejor elevación? La elevación optima. Estos satélites equivalen en cierta manera a 20 metros en HF: hay buen DX y siempre hay estaciones llamando CQ. En su apogeo casi toda una cara de la tierra esta disponible para comunicar ya que en el caso de algunos satélites como el OSCAR 13 llega a estar a 38. Algo similar como cuando escuchamos una ambulancia o un auto a gran velocidad: el tono de la sirena o el motor es distinto antes y después de que pasan frente a nosotros. de distancia. 5. 8. Pero esto no quiere decir que con otras 69 . 7. Centro América. que es el movimiento de frecuencia que se origina por la velocidad a la que se mueve el satélite. El primero mi favorito y lo vende AMSAT (ver pregunta # 18).

¿Cuantos satélites hay? A la fecha hay más o menos 20 satélites de radioaficionados disponibles de una u otra forma. El sistema por el que operan es el de retransmitir entre 50 y 100 kHz de una banda. Esto se conoce como "transponder". Para efectos didacticos podemos dividirlos en cuatro: A) Satélites de órbita baja para voz o analógicos. Digo mas o menos ya que de vez en cuando alguno queda apagado por falla o mantenimiento. ¿Y en base a que información el programa hace estos cálculos?. 70 . este es un mundo muy amplio. Entre los satélites de este tipo destacan los rusos RS-10/11 y RS-12/13 y el satélite japonés FUJI OSCAR 20 No se requiere de equipo sofisticado para trabajarlos. ¿Como puedo trabajar un satélite? Dependiendo de las caracteristicas de los satélites será la manera de trabajarlos. 11. Para el experimentador y en constructor de equipos y antenas. Praticamente cualquier elevación superior a 2 o 3 grados es suficiente si nuestro horizonte lo forman montañas lejanas o montes cercanos pero no muy altos. Hay diplomas aunque no hay concursos. televisión de barrido lento. 9. teletipo. Son los mas fáciles de trabajar y casi todos nos iniciamos en ellos. en lugar de una sola frecuencia como lo hace un repetidora. telegrafía. a 50 o 100 kHz de otra banda con todo lo que se encuentre en ella. Para efectos de una computadora da igual cual utilices. Muchos de los modos de operación que encontramos en las bandas tradicionales también están disponibles en los satélites: banda lateral. Hay espacio para los que les gusta conversar y hacer nuevos amigos. hay plie-ups y DXpediciones que trabajan en split. 12. En los satélites se hace DX tan bueno como en 20 metros. 10. ¿Que tipo de actividad encuentro en los satélites? Hay satélites para todos los gustos. sea CW o banda lateral. Existen dos tipos de formatos: NASA o de dos líneas y AMSAT que es mas fácil de entender a los humanos y por lo mismo son mas largos.elevaciones no se pueda trabajar. FM y packet de diversos tipos. En pocas palabras: lo que hoy nos gusta del radio casi seguro lo encontramos también vía satélite. Los programas de computadora para seguimiento de satélite se actualizan con una serie de datos sobre los satélites mejor conocidos como elementos Keplerianos que por lo general uno consigue fácilmente de los BBSes de packet o de alguna revista sobre el tema. quizá solo de un poco de paciencia B) Satélites de órbita baja digitales.

El MIR es relativamente fácil de trabajar en packet dado que los cosmonautas permanecen en el espacio por mucho tiempo. C) Satélites de órbita elíptica. son el UO14. A la fecha hay más de 10 satélites digitales operando. Son el equivalentes a BBSes de packet voladores. 13 ¿Que equipo necesito para trabajar un satélite? Cual es el equipo necesario para trabajar satélites es siempre una difícil pregunta. Los satélites tradicionales de este tipo. Los satélites UO-22 y KITSAT OSCAR 23 también son BBS voladores pero trabajan a 9600 bps y tienen entre sus curiosidades cámaras que toman fotos de la tierra y las retransmiten vía packet. El primero ya está cumpliendo su ciclo de vida y el último no funciono. El UNAMSAT. AMSAT OSCAR 16. KITSAT-B.Son satélites de órbita circular que operan principalmente packet en sus distintas modalidades. EQUIPO MINIMO NECESARIO PARA TRABAJAR SATELITES EQUIPO PARA EL SATELITE MODO UPLINK DOWNLINK ANTENAS AMP/PREAMP TNC TIPO ---------------------------------------------------------------------------RS-10/11 A 2m/SSB 10m/SBB omni no/no no Analógico DO-17 2m/FM omni no/no 1200 AFSK Digital AO-16 JD 2m/FM 70cms/SSB omni no/no 1200 PSK Digital KO-23 JD 2m/FM 70cms/SSB omni no/no 9600 FSK Digital 71 . así como otro tipo de experimentos propios del mundo de los satélites. Algunos ya están disponibles para todos. Muy pronto habrá nuevos satélites de este tipo: la llamada FASE 3-D. conocidos como pacsats. A continuación se presenta una tabla con los equipos MINIMOS necesarios para que con un poco de paciencia y tenacidad se pueda trabajar algún satélite. el DOVE OSCAR 17. EYESAT-A y POSAT-1. Son como ya dijimos en donde se llevan a cabo las comunicaciones intercontinentales y algunos modos como SSTV y RTTY. D) Satélites tripulados. Entre ellos destacan el OSCAR 10. primer satélite mexinaco de este tipo muy pronto estará en órbita. otros siguen en pruebas. Una nueva generación de satélites digitales fue lanzada recientemente: el ITAMSAT-A. Por último las naves espaciales: el MIR ruso y el Space Shuttle norteamericano que como ustedes bien saben traen equipos de dos metros y hacen contacto con radioaficionados en la tierra tanto en voz como en packet. el Webersat o WO-18 y el satélite argentino LUSAT o LO-19. OSCAR 13 y el ARSENE.

órbitas de Molniya u órbitas bajas terrestres. misiles balísticos o MIRV. (435 MHz) 13 cm. Suelen utilizar órbitas geosíncronas. (1.AO-13 B 70cms/SSB 2m/SSB yagis si/si no Elíptico MIR/STS 2m/FM 2m/FM omni no/no 1200 AFSK Tripul ---------------------------------------------------------------------------14. Satélites astronómicos. etc. CW. otras armas orbitales y objetivos. también denominados como satélites asesinos.2 GHz) 70 cm. (435 MHz) 2 metros (145 MHz) J 2 metros (145 MHz) 70 cm. FM. son satélites utilizados para la observación de planetas. son los empleados para realizar telecomunicación.4 GHz) T 15 metros (21. esto es para transmitir o subir al satélite y el downlink o la banda en la que el satélite transmite de regreso o baja y en la que nosotros recibimos. galaxias y otros objetos astronómicos. (2. Tipos de satélite (por tipo de misión) • • • • Armas antisatélite. mientras que otros usan armas de energía o partículas para destruir satélites. generalmente con propósitos de experimentos científicos. (435 MHz) K 15 metros (21. En satélite el modo significa las bandas que estoy utilizando para trabajar al satélite: que banda uso en el uplink. diseñados para llevar organismos vivos. Satélites de comunicaciones. ¿Que es el "modo" en los satélites? El término modo de los satélites es uno de los que hacen parecer complicada esta área de la radioexperimentación.2 MHz) 10 metros (29 MHz) L 23 cm. son satélites diseñados para destruir satélites enemigos. En HF el modo es el tipo de emisión en el que trabajamos: SSB. 72 . Modo Uplink Downlink ---------------------------------------------------A 2 metros (145 MHz) 10 metros (29 MHz) B 70 cm.2 MHz) 2 metros (145 MHz) Tipos de satélites artificiales Se pueden clasificar los satélites artificiales utilizando dos de sus características: su misión y su órbita. Biosatélites. (435 MHz) S 70 cm. Algunos están armados con proyectiles cinéticos.

cartografía sin fines militares. Órbita heliocéntrica: una órbita alrededor del Sol. Satélites de observación terrestre. esta enfocada a localidades donde no llegan otro tipo de tecnologías y con el objetivo de cubrir necesidades de comunicación. En el Sistema Solar.465 satélites artificiales orbitando alrededor de la Tierra. utilizan señales para conocer la posición exacta del receptor en la tierra. El Sol terrestre sigue éste tipo de órbita alrededor del centro galáctico de la Vía Láctea. son utilizados para la observación del medio ambiente. Satélites meteorológicos. Es posible clasificarlos por tipos de órbitas satelitales GEO Orbita Geosestacionaria. Satélites de energía solar. microsatélites. este es utilizado por empresas celulares con la llamada tecnología GPS. MEO Es de órbita mediana rota de 10. Satélites de reconocimiento.• • • • • • • Satélites miniaturizados. cometas y asteroides siguen esa órbita. Satélites de navegación. Existen aproximadamente 2. datos e Internet a empresas privadas y de gobiernos.000 km y tiene un periodo orbital de 10 a 14 horas. meteorología. Tipos de satélite (por tipo de órbita) Clasificación por centro • • • Órbita galactocéntrica: órbita alrededor del centro de una galaxia. son estructuras diseñadas para que los seres humanos puedan vivir en el espacio exterior. también denominados como minisatélites. nanosatélites o picosatélites. los planetas. son satélites utilizados principalmente para registrar el tiempo atmosférico y el clima de la Tierra. Una estación espacial se distingue de otras naves espaciales tripuladas en que no dispone de propulsión o capacidad de aterrizar. Órbita geocéntrica: una órbita alrededor de la Tierra. son una propuesta para satélites en órbita excéntrica que envíen la energía solar recogida hasta antenas en la Tierra como una fuente de alimentación.000 km sobre el ecuador. son satélites de observación o comunicaciones utilizados por militares u organizaciones de inteligencia. Estaciones espaciales. es empleado en escuelas publicas y negocios rurales. La mayoría de los gobiernos mantienen la información de sus satélites como secreta. además de satélites artificiales y basura espacial. por lo tanto tiene un periodo orbital de 24 horas y muestra un retardo entre 700 y 800 milisegundo.000 a 20. LEO Son satélites de órbita baja están a una altura de 700 a 1400 km y tienen un periodo orbital de 80 a 150 minutos. denominados popularmente como satélites espías. esto significa que rota igual que la tierra a una altura de 36. son característicos por sus dimensiones y pesos reducidos. utilizando otros vehículos como transporte hacia y desde la estación. este tipo de satélites son utilizados para brindar servicios de voz. 73 .

Órbita hiperbólica: una órbita cuya excentricidad es mayor que uno. también conocida como órbita muy excéntrica u órbita muy elíptica. la velocidad es igual a la velocidad de escape. Clasificación por excentricidad • • • • Órbita circular: una órbita cuya excentricidad es cero y su trayectoria es un círculo.786 km.000 km Órbita media terrestre (MEO): una órbita geocéntrica con una altitud entre 2. 74 . o Órbita de Molniya: una órbita muy excéntrica con una inclinación de 63. Por tanto. Clasificación por altitud • • • Órbita baja terrestre (LEO): una órbita geocéntrica a una altitud de 0 a 2.4º y un período orbital igual a un día sideral (unas 24 horas). Órbita elíptica: una órbita cuya excentricidad es mayor que cero pero menor que uno y su trayectoria tiene forma de elipse. tiene una inclinación de 90º o aproximada.000 km y hasta el límite de la órbita geosíncrona de 35. Clasificación por inclinación • Órbita inclinada: una órbita cuya inclinación orbital no es cero. o Órbita de transferencia geosíncrona: una órbita elíptica cuyo perigeo es la altitud de una órbita baja terrestre y su apogeo es la de una órbita geosíncrona. o Órbita tundra: una órbita muy excéntrica con una inclinación de 63. Órbita alta terrestre (HEO): una órbita geocéntrica por encima de la órbita geosíncrona de 35.786 km. o Órbita polar heliosíncrona: una órbita casi polar que pasa por el ecuador terrestre a la misma hora local en cada pasada.• Órbita areocéntrica: una órbita alrededor de Marte. o Órbita de transferencia geoestacionaria: una órbita elíptica cuyo perigeo es la altitud de una órbita baja terrestre y su apogeo es la de una órbita geoestacionaria. También se la conoce como órbita circular intermedia.4º y un período orbital igual a la mitad de un día sideral (unas doce horas). la nave escapa de la atracción gravitacional y continua su vuelo indefinidamente. En tales órbitas. o Órbita polar: una órbita que pasa por encima de los polos del planeta. En estas órbitas. o Órbita de transferencia de Hohmann: una maniobra orbital que traslada a una nave desde una órbita circular a otra. Órbita parabólica: una órbita cuya excentricidad es igual a uno.

Clasificación por sincronía • • • • • • Órbita síncrona: una órbita donde el satélite tiene un periodo orbital igual al periodo de rotación del objeto principal y en la misma dirección. Órbita areoestacionaria: una órbita areosíncrona circular sobre el plano ecuatorial a unos 17.1628 UA. Órbita de captura: una órbita parabólica de velocidad alta donde el objeto se acerca del planeta.o o Órbita de escape: una órbita parabólica de velocidad alta donde el objeto se aleja del planeta. 24. o Órbita geoestacionaria: una órbita geosíncrona con inclinación cero. Los satélites artificiales también pueden ser catalogados o agrupados según el peso o masa de los mismos. Un ejemplo es el asteroide (3753) Cruithne. o Órbita cementerio: una órbita a unos cientos de kilómetros por encima de la geosíncrona donde se trasladan los satélites cuando acaba su vida útil. Órbita heliosíncrona: una órbita heliocéntrica sobre el Sol donde el periodo orbital del satélite es igual al periodo de rotación del Sol. Clasificación de los satélites según su peso • • • • • Grandes satélites: cuyo peso sea mayor a 1000 kg Satélites medianos: cuyo peso sea entre 500 y 1000 kg Mini satélites: cuyo peso sea entre 100 y 500 kg Micro satélites: cuyo peso sea entre 10 y 100 kg Nano satélites: cuyo peso sea entre 1 y 10 kg 75 . Similar a la órbita geoestacionaria pero en Marte.544 km aproximadamente y un periodo orbital de unas 12 horas. Para un observador en el suelo.768 km. Punto de Lagrange: los satélites también pueden orbitar sobre estas posiciones. Órbita areosíncrona: una órbita síncrona alrededor del planeta Marte con un periodo orbital igual al día sideral de Marte. Órbita semisíncrona: una órbita a una altitud de 12. un satélite trazaría una analema en el cielo. el satélite parecería un punto fijo en el cielo. Órbita geosíncrona: una órbita a una altitud de 35. Estos satélites trazarían una analema en el cielo. Desde el suelo. Otras órbitas • • Órbita de herradura: una órbita en la que un observador parecer ver que órbita sobre un planeta pero en realidad coorbita con el planeta.6229 horas.000 km de altitud. Se sitúa a aproximadamente 0.

pero no han podido lanzarlos de forma autónoma sino con la ayuda de servicios extranjeros. los cuales permiten el establecimiento de enlaces para voz y datos a terminales móviles. soporta transacciones. Otro tipo de satélites de telecomunicaciones son los dedicados a servicios móviles. Streaming multicast. multicast de archivos. Actualmente más de 200 satélites de telecomunicaciones proporcionan. también para aquellas redes que requieran una pronta instalación y sobre todo la unificación. en tierra. Y es que las telecomunicaciones por satélite constituyen la aplicación más desarrollada del espacio. se podrá disponer de satélites multispot de comunicaciones. desde la órbita geoestacionaria. Existe también otros países que tienen capacidad para diseñar y construir satélites. datos e internet y se proporcionan los enlaces de contribución de programas o noticias. Prestamos servicios de acceso a internet. cambio de archivos (unicast). 76 . Una de las opciones más veloces de acceso a Internet. Países con capacidad de lanzamiento Satélites multispot En menos de una década.1 y 1 kg Femto satélite: cuyo peso sea menor a 100 g Un total de diez países y el grupo formado por la ESA (Agencia Espacial Europea) han lanzado satélites a órbita.000 canales de televisión. La mejor forma de llegar a comunidades retiradas donde no se cuenta con infraestructura de conectividad es por medio de enlaces satelitales. VPN (IPSEC). el jefe de la División de Servicios de Telecomunicaciones de la Agencia Europea del Espacio. incluyendo la fabricación del vehículo de lanzamiento. todo esto con el mismo equipo. mar y aire. la infraestructura desde la que se transmiten cerca de 20. Así lo ha informado hoy José María Casas. capaces de contener mil canales de TV y dar cobertura a un millón de abonados de móviles e internet. se ofrecen decenas de miles de circuitos entre centrales de telefonía. mensajería. hacia el año 2015 aproximadamente.• • Pico satélite: cuyo peso sea entre 0. de antena multihaz y veinte kilovatios de potencia.

sino también para compartir información como en el caso de las escuelas rurales. proyectos de investigación que requieren contar con una conexión permanente para poder enviar o recibir información. Su velocidad La comunicación se realiza a través de ondas electromagnéticas de alta frecuencia que viajan en el espacio libre y llegan hasta un satélite geoestacionario (satélite Mexicano en la banda ku). razón por la cual. los sistemas de cómputo pueden estar ubicados en cualquier parte del mundo. o sistemas móviles utilizados por dependencias públicas para llevar sus servicios a lugares apartados de las grandes ciudades. • Consta de una antena parabólica que puede ser de 90 a 120 cm de diámetro (con transmisor y receptor integrados). conectándose vía satélite a su servidor. el equipo automáticamente se auto-orienta y se conecta a un satélite). e inclusive estar instalados en una camioneta.048 Kbps (kilo bites por segundo) con todas las ventajas de acceso a Internet que ofrecen otros medios de conexión y aunque representa un costo muy elevado para usos domésticos. es una alternativa muy rentable para aplicaciones comerciales y de investigación. antenas autoorientables (con la ayuda de tablas matemáticas que proporciona el proveedor del servicio. o conectarse a un mismo servidor.puede variar entre 64 y 2. u otro vehículo. Es una buena alternativa no sólo para acceder a Internet desde cualquier lugar sin importar su ubicación. que permita su traslado continuo. 77 .

dando por resultado que se podían recibir archivos pesados pero no se podían enviar. es decir. que permite conectar más de una computadora. con buena capacidad en disco duro. que permite la conexión de varias computadoras y. normalmente colocada en el techo de la casa del usuario. • • El satélite retransmite los datos y son recibidos por la antena parabólica. 78 . un puerto Ethernet 10/100 base T que se conecta a un hub. un módem especial para enlace satelital. Así mismo. es decir que utiliza el mayor ancho de banda para la recepción de datos y menor para el envío. se recibe y envía a través del satélite. lo caracteriza un enlace de tipo bidireccional. pero también hay del tipo simétrico (mismo ancho de banda para transmisión y recepción). Posteriormente. los datos pasan a través de un convertidor (módem especial) que los envía por medio de una red Ethernet hacia la computadora. a diferencia de algunas compañías que hace algunos años ofrecían una conexión híbrida en donde la información se recibía a través del satélite pero se enviaba por otro medio terrestre. que en terminos sencillos es como una computadora (pero sin teclado ni mouse) que cuenta con: dos puertos que están conectados a la antena (uno es para el canal de recepción y otro para el de transmisión). A su vez la IDU contiene un puerto RJ45 que se conecta a un HUB o switch de cualquier red. La conexión de este servicio es principalmente asimétrica. como el teléfono.• Un equipo IDU Indoor unit. Este servicio puede conectarse a cualquier equipo de cómputo de modelo reciente.

Soporta enlaces VPN. como nuclear en el espacio y así posicionarse como la mayor potencia en el mundo. video y cualquier aplicación IP. • • • • • No hay retraso (conocido como delay) al conectarse a Internet. 79 . para la destrucción del enemigo la cual constaba de tener armamento tanto militar. Todos sus componentes. ya que alcanza horizontes que la tecnología de cable jamás podrá alcanzar. son productos disponibles comercialmente. Este sistema utiliza solamente protocolos e interfaces estándar. datos.367 dólares mensuales. pero el resultado no fue de destrucción si no todo lo contraria fue de beneficio. más la inversión en el equipo. en cuanto a velocidad y servicio y va desde los 386 a los 4. se puede observa que la tecnología satelital supera por mucho a la tecnología de conexión terrestre. y a su vez fáciles de instalar y mantener. ya que se descubrí una forma para comunicarse mas rapidez con eficacia y teniendo un mayor beneficio para la humanidad. En esta guerra fría o carrera armamentista en la cual la unión soviética estaba a la vanguardia ya que fueron los primeros en lanzar un satélite artificial. Transmite voz.El costo dependerá de los requerimientos del usuario. A través de ella se obtuvo una rápida aceleración de desarrollo tecnológico ya que esta tecnología se obtuvo de un guerra de muchos años entre dos grandes potencias que añoraban esta tecnología. con excepción del módem especializado para satélite. Funciona como cualquier estación terrena dedicada para una conexión de acceso a Internet con servicio digital. CONCLUCIONES Con la información dada y haciendo un análisis profundo y detallado de sus ventajas y desventajas.

Pioneros 80 . Una vez que descubrimos cada rincón de nuestro mundo. La exploración del espacio no se trata simplemente de descubrir si existen hombrecitos verdes en otros planetas.Exploración del Espacio “El Espacio. Y resulta que tenía razón porque el hombre siempre se ha esforzado por explorar lo que reposa más allá de su horizonte. Podemos aprender de dónde venimos. pusimos la mira en las estrellas. la última frontera…” como dijo el Capitán Kirk. pero no fue sino hasta hace 50 años que estuvo disponible la tecnología para hacer de este sueño una realidad. cómo empezó la vida en nuestro planeta y qué le pasará a la tierra en el futuro.

y un perigeo de 180 primeros pasos km. la cápsula lunar voló hasta la superficie de la luna y aterrizó en el borde de Mare Tranquillitatis. El Programa Ruso Sojus fue el equivalente del Programa Americano Gemini y ambos desarrollaron la tecnología necesaria para llegar a la luna. Estuvo en el espacio Buzz Aldrin da sus por 1 hora y 48 minutos.Después de los primeros viajes exitosos en satélites pequeños no tripulados. El 20 de Julio. Los estadounidenses siguieron el ejemplo con su Programa Mercurio.56. Siguió una trayectoria balística y completó un vuelo sub-orbital de 15 minutos. El 20 de Febrero de 1962. el primer astronauta estadounidense. los rusos y los americanos enviaron perros y primates al espacio para investigar el efecto de la ausencia de peso en seres vivos. El Apolo se lanzó el 16 de Julio de 1969. logró 327 km. El primer hombre en el espacio fue el cosmonauta Juri A. Pocas horas después. Michael Collins permaneció en la órbita de la luna.Schmitt estuvieron 22 horas en la luna y manejaron 35 km. Aterrizó sano y salvo en Siberia.Gagarin (1934-1968) quien dió la vuelta a la tierra a bordo del Wostok 1. Los astronautas Cernan y Harrison H. el 21 de Julio a las 3. La nave fue la Freedom 7. El 5 de Mayo de 1961. en su camioneta lunar. el 12 de Abril de 1961. un salto gigante para la humanidad”. Los vuelos del Gemini se realizaron de 1965 a 1966. Pero este éxito tuvo un precio: 21 astronautas han muerto desde el inicio de los vuelos espaciales tripulados el 12 de Abril de 1961. Edwin E. se realizaron cinco vuelos más del Wostok. Armstrong puso un pie en la luna y dijo las famosas palabras: “Este es un paso pequeño para el hombre. Las misiones a la luna planeadas por los Estados Unidos se completaron con el vuelo del Apolo 17 en Diciembre de 1972. John H.Glenn Jr. orbitó la tierra tres veces. En los dos años sobre la Luna.Shepard fue el primer estadounidense en llegar al espacio. siguientes. Luego de alcanzar la órbita lunar.. Aldrin y Neil Arsmstrong escalaron hasta una cápsula lunar. Alan B. Transbordadores 81 .

totalizando 77 toneladas con los motores internos. Pero nunca se efectuó un lanzamiento con la sección Centaur. Durante sus diez misiones. El desastre fue probablemente ocasionado por una falla en el escudo termal. Challenger – El Segundo Transbordador El segundo transbordador en entrar en operación completó su primer vuelo en 1983. el transbordador estuvo en el espacio por 69 días y dió vueltas a la tierra 987 veces. Fue el primero en hacer eso. Luego del accidente del Challenger. El 1 de Febrero de 2003. de la popular serie televisiva Viaje a las Estrellas. Pero el transbordador nunca llegó a despegar debido a que ya se habían completado los trabajos en el Columbia y éste hizo su vuelo inaugural el 12 de Abril de 1981. En 1977. permitiéndole llevar en el compartimiento de carga al cohete auxiliar Centaur. Atlantis – El Cuarto Transbordador La nave espacial Atlantis tenía vacía. Explotó a unos 62. un peso de 68 toneladas. dos pilotos efectuaron el primero de cuatro vuelos de prueba a 7000 metros.Enterprise – El Prototipo El transbordador prototipo fue bautizado con ese nombre por la nave Enterprise. pesó 3 toneladas menos que el Columbia. En 1979 el Enterprise fue unido a un tanque de combustible y a propulsores. Discovery – El Tercer Transbordador A pesar de que el Discovery fue construido como el Challenger. el astronauta Bruce McCandless abandonó el transbordador sin un cordón de seguridad e hizo una caminata espacial de 30m. se desintegró durante un descenso sobre Texas. Llevó a misiones tales como el Explorador Planetario Galileo en 1989 y liberó en el espacio el observatorio de Rayos 82 . Columbia – El Transbordador más Viejo El Columbia (que pesó 71 toneladas y fue modificado y mejorado unas 150 veces) fue reacondicionado entre el otoño de 1999 y la primavera del 2002 y lanzado de nuevo el 1 de Marzo del 2002. en el Centro Espacial Kennedy.000 metros. el Challenger explotó 73 segundos antes de despegar y murieron sus siete tripulantes. En una de las misiones. esto fue puesto en pausa por considerarse muy riesgoso. El 28 de Enero de 1986.

después de ser reparados pueden ser utilizados nuevamente. Endeavour El Transbordador más Nuevo Los niños de escuela estuvieron particularmente activos en la búsqueda de un nombre para este nuevo transbordador. lo que significa que la nave espacial no usa energía transportando piezas que no necesita. Ganó Endeavour. La misión implicaba una espectacular operación de rescate de un satélite de comunicaciones que había salido de control. el cual sólo puede ser utilizado una vez. Existen dos tipos de sistemas de despegue: el Vehículo de Propulsión Prescindible (ELV). Los tanques de combustible y los cohetes son desechados después del lanzamiento en un proceso llamado “nivelación”.Gamma Arthur Holley Compton en 1991. La primera misión del Endeavour fue en Mayo de 1992. Éste último desecha sus tanques de combustible al despegar. los cuales. el Endeavour puede permanecer en el espacio hasta por 28 días. La única nave que usa Vehículos de Propulsión Reutilizable (RLV) es el transbordador espacial de Estados Unidos. Propulsores Los propulsores son los enormes cohetes que impulsan a la nave espacial o vehículo de carga hacia la órbita. De manera sorprendente. desarrollado a partir de misiles balísticos en los 50. 83 . Todos los satélites y las sondas utilizan Vehículos de Propulsión Prescindible (ELV). conservando sus cohetes.

 En 1787 el mismo Herschel descubre dos satelites. Galileo y el primer telescopio En 1609 en el campanario de San Marcos en Venecia. Actualmente tiene una “Visión para la Exploración del Espacio” que planea incluir una serie de misiones. el séptimo planeta del sistema solar por orden de distancia creciente a partir del Sol. La razon de esta singular carateristica ajena a los demas planetas continuara siendo un enigma. En Noviembre del 2004 la nave espacial Swift despegó de Cabo Cañaveral.000 años en sumarse a los ya conocidos duplica el diametro del sistema solar reconocido hasta entonces. Urano. Esto incluirá una misión a la luna con robots a más tardar el 2008.Los Estados Unidos en el Espacio La Administración Nacional de Espacio y Aeronáutica (NASA) es la agencia espacial más grande y conocida del mundo. el octavo planeta En 1847 el astrónomo Johann Gottfried Galle. Galileo Galilei pone a prueba el primer telescopio. El hallazgo del nuevo planeta. el primero en los ultimos 5. girando a su alrededor. dos lentes y y cincuenta aumentos explorando el firmamento y dando comienzo a la astronomia moderna.000 km/h y el impacto podrá observarse desde la tierra. ubica la posición de Neptuno. Neptuno. sorprendente logro de Herschel  En 1781 se descubre Urano. el octavo l 8vo. planeta desde el Observatorio de Berlin. Titania y Oberon. su descubridor es el astrónomo alemán Friedrich Wilhelm Herschel. un modesto cilindro de tres centimetros de diametro. La idea es que nos pueda brindar una inmersión en la constitución de un cometa y las implicaciones que tendría si uno llegara a estrellarse contra nuestro planeta. lo que sentará las bases para la futura exploración de Marte. Disparará una gigantesca “bala” de cobre en el interior del cometa a 45. La inclinacion de sus orbitas indica sorprendente que el eje de rotacion de Urano esta proximo al plano de su revolucion orbital. tripuladas y con robots. a 84 . pocos meses mas tarde el dispositivo le permite observar por primera vez los satelites mayores de Jupiter y mas tarde los anillos de Saturno. Es el primer observatorio de ondas múltiples diseñado para estudiar la ciencia explosiva de los rayos Gamma. Deep Impact se lanzará en Diciembre del 2004 y viajará 133 millones de kilómetros para encontrarse con el cometa Temple1.

Fuente. Transcurridos unos 180 días desde el lanzamiento la nave entra al anillo de asteroides existente entre Marte y Jupiter sin sufrir daños. ampliar Pioneer 10 : primer acercamiento a Jupiter A partir de 1972 da comienzo una ambiciosa exploración de los planetas exteriores.UU. Exploración de Venus En 1989 EE.partir de los cálculos realizados por J.  En 1964 comienza la exploracion robotica de Marte. La Pioneer 10 al pasar junto al mayor de todos los planetas transmite unas 300 fotografiías de resolución media de Jupiter y de sus satélites. A continuación el campo gravitatorio del planeta lo situa de acuerdo a lo planeado en una nueva trayectoria con rumbo a mas alla de la órbita de Plutón la que atravesará en 1987 convirtiéndose en el primer ingenio artificial humano en abandonar el sistema solar. los que serán fotografiados y medidos durante las visitas de las naves Voyager.  Durante este mismo año mediante el telescopio Kuiper se descubren los primeros nueve anillos del planeta Urano. con el lanzamiento de la sonda Pioneer 10 de los EE.UU. Exploración del Espacio . Adams. por EE. Nuevo planetoide entre Neptuno y Plutón En octubre de 2000 astrónomos estadounidenses y venezolanos utilizando el telescopio del Observatorio CIDA de Mérida.Las sondas a los planetas Ediciones Quarto/Orbis 1985 Misiones Voyaguer I y II En 1977 son lanzadas las naves espaciales Voyaguer I y II. La fase del encuentro con Júpiter requirió dos meses y la máxima aproximación tuvo lugar el 3 de diciembre de 1973. en 1994 concretará el mapeo completo del planeta por radar. La sonda se lanza con destino a Júpiter en un viaje programado de 21 meses y un recorrido de casi 1. Leverrier e independientemente por J. cuando ha pasado menos de una década desde el lanzamiento del primer satelite artificial. C. El caso representa otra evidencia mas de las sorpresas que puede depararnos todavia el 85 . para explorar nuestro sistema solar.UU. Se especula que el planetoide siempre estuvo alli desde los orígenes del sistema solar esperando ser descubierto. sus trayectorias finales las llevarán luego a un viaje sin fin por el universo.000 millones de kilómetros. Venezuela reportaron el hallazgo de un nuevo cuerpo celeste entre las órbitas de Neptuno y Plutón de 650 kilómetros de diámetro aproximadamente. serán los primeros ingenios humanos en hacerlo. lanza la sonda espacial Magallanes con destino a Venus.

futuro respecto a descubrimientos dentro de nuestro sistema solar y en sus vecindades. Cuanto mayor sea la masa de un cúmulo. tras polémica redefinición planetaria . ¿Cómo se sabe esto?. criticas que por otra parte tambien se han reactualizado respecto a Plutón. Como resultado de la misma Plutón que desde 1930 ha sido reconocido como el noveno planeta del sistema solar pierde su condicion de tal siendo relegado a la categoría de "planeta enano" quedando asi el sistema solar reducido oficialmente a ocho planetas.Agosto de 2006. la Unión Astronómica Internacional (IAU) define el concepto de planeta. La única fuerza apreciable entre las galaxias de un cúmulo es la gravedad. En Praga. confirmandose que las evidencias de su existencia databan de 1982 aun cuando entonces no se habia logrado identificarlo como tal. alcanzando mayores velocidades. Hay una maneras simple de hacer una estimación de la masa del cúmulo. Su período orbital se calcula en 288 años. planeta de baja.000 millones de kilometros de la Tierra y mas alla de Pluton. Este mismo argumento nos permite calcular la masa utilizando medidas de las mayores 86 . El importante descubrimiento esta lejos de colmar las expectativas de quienes esperan en algún momento detectar un planeta masivo y desconocido en una órbita aun mas lejana el que ademas de explicar algunas perturbaciones orbitales de los planetas exteriores podría dar credito finalmente a la relación de distancias propuesta por la secuencia de Titus-Bode. Quoaoar ( 2002 LM60) es el nombre provisorio con que se ha bautizado al planeta a la espera del nombre que vote la Unión Astronómica Internacional Fuente. No obstante debido a su tamaño (1280 kilómetros de diametro) que subsisten polemicas acerca de la procedencia de otorgarle el caracter de un verdadero planeta. En base a información de BBC World Service Plutón: el 9no. la velocidad media de las galaxias de un cúmulo es una medida de su masa – El lector puede visualizar este hecho utilizando esta simulación java–. Materia oscura Primeras evidencias de materia oscura Desde los años treinta se sabe que las velocidades peculiares de las galaxias en cúmulos corresponden a una masa total del cúmulo de aproximadamente un orden de magnitud mayor que el total de toda la materia luminosa observada dentro de las propias galaxias. Quaoar: nuevo planeta mas allá de Plutón En octubre de 2002 se anuncia oficialmente el hallazgo de un nuevo planeta cerca del cinturon de asteroides de Kuiper a 6. las galaxias exteriores estarán sometidas a una mayor fuerza graviatoria total y por tanto a una mayor aceleración. Por tanto.

Pero podría pasar que las galaxias con velocidades más elevadas estuvieran realmente escapando del cúmulo. Éstas no pueden ser mucho mayores que la velocidad de escape. con las estrellas girando en órbitas cerradas alrededor del centro donde se concentra una gran cantidad de masa. Sólo podemos obtener una instantánea del cúmulo junto con una medida. Evidencias aún más rotundas También. El lector puede visualizar diferentes tipos de curvas de rotación según la masa central en esta aplicación java. desde los años sesenta se ha observado una situación similar en las partes exteriores de las galaxias espirales y al menos en algunas elípticas. En este caso. Si imaginamos una galaxia a modo de Sistema Solar. Sólo existen dos posibles explicaciones a este fenómeno: 1. a través del desplazamiento doppler. de las velocidades peculiares de cada galaxia. Por tanto. Existe una cantidad de materia distribuida de manera diferente a la materia visible 2. cabría esperar entonces que las velocidad de las estrellas disminuyeran a medida que nos alejamos del centro siguiendo una ley kepleriana del tipo del inverso de la raíz cuadrada de la distancia. como podemos observar en el ejemplo de la curva de rotación de la derecha correspondiente a la galaxia NGC3198 (fuente: Berkeley). una idea simple en astronomía suele estar acompañada de dificultades observacionales. o que simplemente sean galaxias de fondo atravesando la franja del cielo donde está el cúmulo. o que no pertenezcan realmente a éste. Bien las leyes dinámicas o bien la teoría gravitatoria que aplicamos a esas escalas no son correctas. o en caso contrario las galaxias se habrían alejado del cúmulo. las observaciones indican otra cosa. Sin embargo. antes de abandonar 87 . Aunque existe al menos una teoría dinámica alternativa (MOND) y alguna teoría gravitatoria alternativa (Gravedad Conforme por ejemplo). éstas tienen algunos problemas y de momento nadie ha encontrado ninguna desviación de las predicciones de la Teoría General de la Relatividad. La representación de la velocidad de rotación frente a la distancia se denomina curva de rotación. Siempre por supuesto. La velocidad parece mantenerse prácticamente constante hasta el límite observacional externo de la galaxia.velocidades que se observan en el cúmulo. desde luego que no podemos observar las galaxias moviéndose realmente.

Todo esto nos lleva a que al menos un 85% de la materia está formada por algún tipo de materia exótica. es decir. El total de materia luminosa visible está por debajo de esta cantidad. Materia oscura no bariónica Antes de 1980 se asumía habitualmente que esta "materia oscura" era materia ordinaria en alguna forma no detectable como gas. El neutrino es una partícula emitida en la desintegración beta donde un protón (p) reacciona con un antineutrino (n-)convirtiéndose en un neutrón (n) y un positrón (e+) [reaction#1] ó un protón (p) interacciona con un electrón (e-) para producir un neutrón (n) y un neutrino (n). el modelo de formación de los elementos químicos ligeros en los primeros instantes del universo. indica que la cantidad de materia bariónica (aquella formada por protones y neutrones) no puede ser muy diferente de un 4 a 5% de la densidad crítica. ¿Por qué piensan los cosmólogos en estos tipos de materia exótica?. Sin embargo. los años ochenta trajeron a escena otra fascinante idea: que la materia oscura está formada por neutrinos o alguna forma más exótica de partículas aún no descubierta en los laboratorios de altas energías. Pero la nucleosíntesis primigénea. Sin embargo se pueden hacer modificaciones en la teoría que permita la existencia de neutrinos masivos de forma que tienen que ser las 88 . lo que implica que debe haber mucha materia no detectada en forma de objetos compactos denominados habitualmente MACHOS (del inglés Objetos Compactos del Halo [Galáctico]). estrellas de baja masa y cadáveres estelares del tipo enana blanca o agujero negro. La razón es que muchas observaciones convergen a un valor del parámetro de densidad del orden de un 30% de la densidad crítica.sin motivos suficientes una teoría consistente de tal éxito observacional como la Relatividad General tenemos que probar con la alternativa más simple. Tipos de materia exótica no bariónica Neutrinos La primera partícula que se pensó podía formar parte de esta materia oscura fue el neutrino. el neutrino es una partícula que no tiene masa. En el Modelo Estándar de la física de partículas.

La medidas del CERN ponen un límite superior a la masa del neutrino más pesado de unos 9 eV. Los neutrinos son fermiones (partículas de spin semientero) y el principio de exclusión de Pauli establece un máximo de densidad de neutrinos del orden de un millón por centímetro cúbico. Las medidas del experimento Super-Kamiokande de 1999 indican que la masa del neutrino es probablemente mucho menor que esta cantidad. con el Sol situado a unos 10 kpc gira con una velocidad de unos 220 km/s implica una masa mínima de algo más de 5 ×109 masas solares. lo que los convierte en lo que se denominan partículas relativistas. Por tanto la masa del neutrino tendría que ser del orden de unos 10 eV para que pudiera constituir el resto de la masa oscura.observaciones o los experimentos los que decidan cuál es el caso. Al ser el neutrino una partícula sin masa o tremendamente ligera se mueve a la velocidad de la luz o a velocidades muy cercanas.18 de la densidad crítica. Medidas más recientes estiman la suma de los tres tipos de neutrinos en algún lugar entre 0. Se debe cumplir entonces que la energía de ligadura gravitacional (G m M/r) sea como muy poco del orden de la energía cinética de las estrellas (1/2 m v2). Un átomo de hidrógeno pesa (en unidades de energía) unos 1000 MeV. Pero si los neutrinos constituyen la masa dominante de estructuras como galaxias podemos hacer una nueva estimación de la masa del neutrino de la siguiente manera: Las galaxias tienen unas masas dinámicas que podemos deducir aproximadamente del simple hecho de que las estrellas estén unidas gravitacionalmente al cuerpo de la galaxia. si los neutrinos tienen que contribuir con algo así como del orden de la densidad detectada (1/3 de la densidad crítica aprox.) tendríamos que unos 100 millones de neutrinos tendrían que pesar algo así como un átomo de hidrógeno. lo que es incompatible con el cálculo anterior que establecía un límite superior de unos 10 eV. Teniendo en cuenta que la densidad crítica es del orden del peso de 2 ó 3 átomos de hidrógeno por metro cúbico.001 y 0.4 eV .05 y 8. Actualmente se denomina a cualquier tipo de partículas relativistas en cosmología materia oscura caliente (del inglés Hot Dark Matter o abreviado HDM) La nucleosíntesis primigénea establece que el número de tipos de neutrinos sólo puede ser tres (hecho que confirman los experimentos del CERN) y que su número actual tiene que ser del orden de unos 115 neutrinos de cada especie por centímetro cúbico. situada en algún lugar entre 0. Esto establece una masa mínima para el neutrino de unos 30 eV. Esto implicaría una contribución escasa a la densidad de materia del universo. para nuestra galaxia. con objeto de que éstas no escapen de sus órbitas. Por ejemplo. 89 .

Por ello se les suele llamar WIMPs (de Weak Interacting Massive Particles o partículas masivas débilmente interactuantes). las grandes estructuras galácticas como los supercúmulos tienden a formarse primero que las pequeñas estructuras como los cúmulos de galaxias (que se suele denominar formación de arriba a abajo). 2. Energía Oscura Tanto la Relatividad General como la mismísima gravitación Newtoniana permiten la existencia de un término que puede producir una repulsión gravitatoria a gran escala. procedente de tres observaciones independientes: 90 .Las observaciones de la supernova 1987A también son compatibles con la existencia de tres tipos de neutrinos y con un límite superior de la masa del neutrino electrónico de unos 25 eV. implicando un universo que podría estar incluso acelerando su expansión. Su existencia es una característica general de las teorías de gran unificación que intentan unificar todas las interacciones a excepción de la gravedad. Algunos de estos tipos de partículas han sido propuestas desde la teoría pero nunca observadas hasta la fecha. Se denomina materia oscura fría (del inglés Cold Dark Matter. La búsqueda de este tipo de partículas como parte de la materia oscura tienes dos motivaciones básicas: 1. Pero hay un problema más grave que todo esto. Comparación entre la distribución de galaxias observada (c). abreviada CDM) a cualquier tipo de partículas relativamente masivas que se mueven a velocidades mucho menores que la velocidad de la luz. y una simulación numérica de las estructuras galácticas resultantes en un modelo de universo con neutrinos (b) y un modelo de universo con partículas más masivas y lentas (a) Materia oscura fría. Además las concentraciones de materia en los grandes supercúmulos sería considerablemente mayor de lo observado (ver modelos de formación galáctica para más detalles). Lo intrigante del caso es que existe evidencia de que ésta podría ser de hecho la situación. Su inserción en las simulaciones de la formación de las estructuras galácticas consigue mejorar la semejanza con los observado (ver comparación en la figura anterior) Las partículas que podrían formar la materia oscura fría podrían tener masas que rondan el Gigaelectrónvoltio e interactuarían sólo a través de la interacción débil y de la gravedad. Cuando ponemos tanta masa de neutrinos en el universo. lo que contradice las observaciones que indican una formación relativamente reciente de las grandes estructuras (más compatible con una formación de estructuras jerarquizada de abajo a arriba).

implicando un universo muy cercano o justo con la densidad crítica. enana marrón. Teóricamente. Del estudio estadístico de lentes gravitatorias. Todos estos estudios indican que esta componente de energía oscura contribuye con unos 2/3 de la masa del universo. pasa por delante de una estrella distante (por ejemplo situada en las Nubes de Magallanes). enana blanca. 2. Quintaesencia Detección directa de materia oscura 1. y por tanto de geometría espacial plana (ver noticia del 11 de febrero de 2003) ¿Qué podría constituir esta energía oscura?. si el MACHO y la estrella están prácticamente alineados en la línea de visión desde la Tierra se forma un anillo luminoso alrededor del objeto formado por todos los rayos de luz que convergen en el observador. Constante Cosmológica. G la constante de gravitación universal y 91 . De la relación desplazamiento al rojo-distancia aplicada al brillo de supernovas tipo Ia. Detectando MACHOS (Objetos Compactos del Halo Galáctico) Cuando un objeto compacto del Halo Galáctico como un planeta gigante. se produce un fenómeno que denominamos microlente gravitatoria. similar a las lentes gravitatorias producidas por la interposición de una galaxia ó un cúmulo de galaxias en nuestra línea de visión a un cuásar. El efecto de interposición de un MACHO produce una concentración de la luz de la estrella distante que se manificesta como un aumento de brillo. etc. Este anillo de denomina de Einstein El radio del anillo de Einstein RE depende de la masa M del objeto y de las distancias L a la estrella y l al MACHO (ver figura) RE = 2/c Raiz [G M L x (1-x)] Donde c es la velocidad de la luz. 2. De las anisotropías de la radiación de fondo cósmico (ver noticia del 10 de Mayo de 2000) 3.1. Se están explorando actualmente dos posibilidades: 1.

entre ellos el proyecto MACHO. Para estrellas de la Gran Nube de Magallanes es del orden de media hora si el MACHO interpuesto se trata de un cuerpo de masa planetaria. y el proyecto OGLE. La curva de arriba es para un parámetro de impacto r igual la mitad del radio del anillo de Einstein y la de abajo para un parámetro de impacto igual al radio del anillo de Einstein.5 magnitudes para estrellas de la Gran Nube de Magallanes. El tiempo que dura el evento está relacionado con la masa del MACHO implicado. Curvas de luz teóricas para un fenómeno de microlente de una estrella perteneciente a la Gran Nube de Magallanes producida por un MACHO con una masa 100 veces menor que la del Sol y una velocidad transversal vr de 200 km/s. Cuando miramos a estrellas de la Nube de Magallanes hay dos hipótesis que parecen razonables: 1) Que el fenómeno se produce debido a un objeto del Halo galáctico. El problema sólo queda definido cuando hacemos alguna hipótesis de la posible posición de los objetos. Las conclusiones básicas que se pueden extraer de las observaciones de estos tres proyectos son: 92 . porque en principio existen infinitas configuraciones de objetos que podrían llevar a la misma curva de luz. Es importante señalar que el problema de conocer los parámetros que intervienen en el fenómeno de microlente gravitatoria es un problema mal definido. unas 3 semanas si se trata de un enana marrón y de 5 a 8 semanas si se tratara de una enana blanca. el proyecto EROS. -Dm representa la variación de magnitud de la estrella durante el evento. Existen varios proyectos de observación que buscan eventos de este tipo.x = [distancia la Macho] / [distancia a la estrella] = l / L El factor de amplificación A viene dado por A = ( u2 + 2 ) / (u (u2+4)½) con u = [parámetro de impacto] / [radio del anillo de Einstein] = r / RE y es típicamente del orden de 1 a 1. 2) Que el el fenómeno se produce a consecuencia de un objeto perteneciente a la propia Gran Nube de Magallanes.

2. Detectando WINPS (Partículas masivas de interacción débil) Nadie ha detectado todavía una WIMP. 2. pero su existencia está bien motivada por dos razones básicas 1. Fuente: The MACHO project. Uno de los eventos detectados por el proyecto MACHO. Varios eventos correspondientes a microlentes gravitatorias han sido observados. El número de eventos observados implica que el halo galáctico no puede estar formado enteramente de MACHOs de masa subestelar. Parece de nuevo inevitable la existencia de materia no bariónica en nuestra galaxia.1. La independencia de las curvas con el color demuestran que la interpretación de microlente gravitatoria de las curvas de luz es perfectamente factible. WINPS podrían haber sido producidas en el universo temprano en reacciones del tipo positrón + electrón ® WIMP + anti WIMP 93 . 3. Las curvas de luz con filtro azul (blue) y con filtro rojo (red). Las teorías de gran unificación predicen la existencia de gran número de partículas exóticas que interaccionan con el resto de la materia sólo a través de la interacción débil y de la gravedad con masas del orden de algunos GeV hasta algunos cientos de GeV. Las observaciones de la estructura del universo a gran escala y de las propias galaxias como la nuestra parecen implicar la existencia de materia no bariónica de manera inevitable 2.

cuando un enjambre de miles de satélites artificiales puebla la órbita terrestre. mientras que magnesio. soviéticos y estadounidenses. interaccionarían muy débilmente con la materia produciéndose pocos eventos de baja energía (unos pocos keV). la carrera espacial parece no haber terminado. es el único modo de hacer rentable la exploración espacial. 94 .® X + X+ Por supuesto que también se aniquilarían vía la reacción inversa X + X+ ® e+ + e- El número de WIMPs que podrían atravesar un detector es bastante grande. numerosas naciones y corporaciones ven en las nuevas fronteras una oportunidad de negocio y expansión. con nuevos campos de batalla en el espacio exterior de naturaleza distinta a la competición en la que se enzarzaron. en caso de existir. Tal y como ocurrió cuando Cristóbal Colón descubrió el Nuevo Mundo. sostienen. Por un lado. del orden de un millón por cm2 de superficie del detector y por segundo para WIMPs de 1 GeV. se creen abundantes en la Luna. disminuyendo la cantidad proporcionalmente a la masa de la partícula. Elementos como el helio-3. ambicionado para investigar fusiones nucleares. la Era Espacial se reinventa y toma nuevos rumbos. especulando con el tiempo y el espacio. Surge así un nuevo circuito hacia el que propagarse. Es exactamente el mismo problema que para la detección de neutrinos y así uno necesita construir detectores con gran cantidad de material. Una nueva era espacial En el siglo XXI. cobalto y uranio parecen encontrarse en vastas regiones de Marte. cuando se entrena a astronautas para que soporten un viaje a Marte y en un momento en el que el turismo cósmico comienza a despegar. Minar los cielos. las agencias espaciales se preparan para regresar a la Luna y construir asentamientos permanentes en su superficie que permitan al ser humano dar otro “salto de gigante” hacia el planeta rojo. hace tan sólo medio siglo. Más allá de darse por finiquitada.e+ + e. La dificultad principal reside en que estas partículas.

El pionero Borís Chertok. Con capacidad para seis cosmonautas. la prometedora nave podría entrar en servicio en 2018. el siglo XXI acoge un renovado interés por retomar los vuelos espaciales y construir un asentamiento permanente a 384. todos calientan motores. La NASA prejubila su buque insignia. Sin embargo. El regreso a la Luna y la expectación planetaria que suscita han llevado a los expertos a pedir colaboración entre los países para que no se repita una carrera espacial a la vieja usanza. aseguraba hace poco el director adjunto del proyecto. Tras las diez exitosas misiones del programa Apolo. Si creemos que es suficiente. el famoso transbordador Shuttle y. “En 2020 seremos capaces de aterrizar en la Luna con una tripulación de cuatro astronautas y de realizar allí misiones permanentes de seis meses”. uno de los ingenieros responsables del programa cósmico ruso. podrían cumplirse los pronósticos de regresar a la Luna en 2020. Sin nosotros. Alan Rhodes. construye una nueva flota de vehículos y cápsulas espaciales que llevarán a sus astronautas de nuevo a la Luna bajo el programa Constellation. Uniendo nuestras fuerzas con los americanos. habría que sumar como mínimo cinco años más para volver al satélite”.000 kilómetros de la Tierra. La generación que creció creyendo que a estas alturas las misiones a Marte serían mera rutina. considera que “la cooperación resulta fundamental. De momento. por ejemplo. Michael Griffin.De vuelta a la Luna “Sólo hemos explorado la Luna 27 días. Por su parte. ex-director de la NASA Desde que los astronautas Gene Cernan y Harrison Schmitt despegaron de la superficie selenita en 1972. el ser humano no ha vuelto a la Luna. las futuras generaciones pensarán que somos estúpidos”. ni estadounidenses ni rusos intentaron regresar al satélite con naves tripuladas. los rusos trabajan también en una nueva nave espacial que sustituirá a la mítica cápsula Soyuz tras 40 años en servicio de reconocida efectividad. con la Estación Espacial Internacional a punto de completarse. pudiendo 95 . Los responsables de la agencia añaden que “esta transición es una oportunidad para reinventar y revitalizar nuestros vuelos tripulados”. A partir de su nuevo diseño. no puede hablar siquiera de una base humana en la Luna. se desarrollará otra cápsula gemela que orbite alrededor de la Luna con cuatro cosmonautas a bordo.

unos pasos por delante. La Agencia de Exploración Aeroespacial de Japón (JAXA) ha hecho revivir la época del Apolo con imágenes en alta resolución de la Luna y la Tierra a lo lejos. Rusia sigue luchando en primera línea por el Cosmos. tiene planes espaciales bastante ambiciosos. los gigantes asiáticos parecen haber tomado la delantera con el ímpetu de los primerizos. En contra de lo que se podía prever. los japoneses estudiaron además las diferencias entre las dos caras de la Luna para intentar comprender cómo se formó y cómo ha evolucionado hasta su estado actual. poner en órbita lunar la sonda Chang’e (diosa china de la Luna) y haber efectuado ya un paseo espacial.permanecer 200 días en el Espacio adosada a una eventual estación espacial. Gracias a su sonda Kayuga. Tras haber lanzado su primer taikonauta en 2003. Y en esta carrera hacia el satélite. La meta a medio plazo de todas las agencias es asentarse en la Luna con bases permanentes para luego abordar la exploración de Marte. El gobierno de Pekín no oculta que sus objetivos son 96 . China. los chinos presentan credenciales de peso para adelantarse incluso a los planes de estadounidenses y rusos. suspendida en la negrura del Universo.

El hombre se instalaría en el satélite. A los posibles beneficios de su futura explotación geológica. un elemento inocuo que podría ser el combustible ideal para las centrales nucleares del futuro. Sólo el proyecto de la NASA va a repartir un pastel de 100. el asentamiento en la Luna proporcionaría una base conveniente para las naves que se dirijan en el futuro hacia Marte. para extraer helio-3. este recuperado interés por la Luna no es gratuito. Las sondas espaciales estadounidenses Mariner y Viking. un isótopo del helio casi inexistente en la Tierra. sobre el que las grandes corporaciones ya se han abalanzado. La ambición roja Marte. se suman los que van a obtener las empresas que construyen las naves y las bases que se piensan instalar en el satélite. elevar el prestigio internacional del país y explotar las posibilidades militares del programa. ha despertado la imaginación del ser humano como ningún otro planeta. Sin embargo. entre otras cosas. que tuvieron más éxito 97 . nuestro vecino celeste.variados: analizar la existencia de recursos minerales.000 millones de dólares. el siguiente “paso lógico” para la exploración humana del Sistema Solar. Estados Unidos y la Unión Soviética pusieron en marcha sondas robóticas para explorarlo. Además. Poco después del amanecer de la Era Espacial.

este cuerpo rocoso. Su tierra baldía tiene huellas que evocan un planeta asolado por volcanes y meteoritos. el largo viaje de regreso a casa.planeta que observamos hoy. extensas llanuras. del ser humano durante prolongados períodos de aislamiento. Durante las tres últimas décadas. tanto física como psicológica. Marte tiene casquetes polares y nubes en su atmósfera. La gran incógnita sigue siendo la de si existe agua líquida en Marte. cráteres de impacto. y por ello se hace necesario profundizar en la historia geológica y climática del planeta para saber cómo. una atmósfera volátil y gigantescas inundaciones. A pesar de que Rusia orientó su exploración desde un principio hacia Venus. 98 . frío y estéril continúa arrojando nuevas hipótesis sobre su pasado y su presente. tiempo estimado de un viaje de ida y vuelta al planeta en los que experimentarán todas las vivencias de una misión real. profundos cañones y valles. revelaron un planeta con colosales volcanes inactivos. Ambas instituciones están colaborando en una serie de misiones simuladas a Marte con las que poner a prueba la resistencia. Prueba de ello es su alianza estratégica con la Agencia Espacial Europea (ESA) para enviar una misión tripulada a Marte en 2030. tras un recorrido por la superficie. no ha renunciado del todo a la aventura marciana. Los viajes espaciales al planeta rojo descubrieron un mundo extrañamente familiar: al igual que la Tierra. cuándo y por qué Marte sufrió los cambios tan drásticos que le llevaron a convertirse en el amenazador -pero aún prometedor. el viaje al espacio exterior. El experimento final recluirá a una tripulación de seis personas durante 520 días.que sus malogradas homólogas soviéticas. con escala en la Luna. incluidos el lanzamiento. una fina atmósfera de dióxido de carbono y bajísimas temperaturas. patrones climáticos estacionales y otros rasgos reconocibles. la llegada a Marte y. feroces tormentas de polvo.

99 . Wernher von Braun. Previó que el asalto humano a la ambición roja debía hacerse con una decena de naves y con al menos 70 astronautas. defendió durante toda su carrera la idea de un viaje tripulado a Marte a gran escala. “Todo los que se puede decir con certeza es lo siguiente: el viaje se puede hacer y se hará algún día”. Von Braun llegó a la conclusión de que nadie sería capaz saber lo que los seres humanos encontrarían al aterrizar en Marte.El audaz ingeniero alemán de la NASA.

Método y aparato de transmisión y recepción de documentos mediante la red telefónica conmutada que se basa en la conversión a impulsos de las imágenes «leídas» por el emisor.El Fax La utilización del FAX. por lo que es usado en la formalización y cancelación de contratos. El teleprocesamiento permite que un sistema de computación utilice algún tipo de telecomunicación para procesar datos. y presenta la ventaja de no ser crackeable. Partes de un fax Un fax es esencialmente un escaner de imágenes. el 100 . y a comienzos del siglo XX se empezó a utilizar en los periódicos para enviar y recibir imágializar los faxes de forma masiva. añadiendo multitud de novedades tecnológicas en el transcurso del siglo XX. La primera máquina comercial apareció en 1863. un módem y una impresora combinados en un aparato especializado. Historia La historia del fax inicia poco después de la invención del telégrafo. Las telecomunicaciones hacen referencia a la transmisión de datos a distancia.en el receptor. como una herramienta en la comunicación es de gran importancia. la cual es La transmisión de datos es el movimiento de información codificada de un lugar a otro de señales que portan dichos datos por medio de sistemas de comunicación eléctrica. Además es de un costo muy bajo y confiable. impulsos que son traducidos en puntos -formando imágenes. Se define comunicación como el proceso por el que se transporta transmitida mediante señales. que viajan por un medio físico. al otro lado. Definición Se denomina fax. El escáner convierte el documento original en una imagen digital. una enviaba la imagen mientras la otra la recibía y la reproducía. al fax se le concede valor legal. cuando en la exposición Universal de Londres (1851) se mostró un sistema capaz de enviar y recibir imágenes de una máquina a otra. en algunos países como España. información.recibir imágenes y textos de todo tipo. por abreviación de facsímil. ya que se usa par enviar . a un sistema que permite transmitir a distancia por la línea telefónica escritos o gráficos (telecopia). el módem envía la imagen por la línea telefónica.

pueden enviarse a un ordenador o almacenarse en color en un disco duro local. MS Windows y los diferentes sabores de Unix). son capaces de emular un fax. Apple Macintosh. y en el momento de popularización del módem/fax (un tipo de módem que además de los protocolos de comunicación incorpora el Grupo 2 o superior de fax). a poder controlarse cualquiera de sus partes). Los primeros faxes utilizaban impresoras térmicas. el programa de recepción de transmisión de fax se hace emulando una impresora a la que se puede imprimir desde cualquier aplicación. La llegada de los equipos multifunción incorporó el escáner en color: aunque las imágenes se siguen enviando en grises. En el otro extremo se sitúan los ordenadores que. Software emulador de fax Un ordenador con fax/módem y el software adecuado es capaz de emular el funcionamiento de una máquina de fax. Entre ellos destacan el Ericsson portable y el Canon Navigator. mediante software y sus periféricos estándar. Eran muy pocas las máquinas que usaban una impresora de agujas. que en la mitad de los casos actuaban además como equipos multifunción (desde actuar sólo como impresora o fax/módem del ordenador conectado. que requieren un papel específico. el abaratamiento de la impresión por chorro de tinta provocó un boom de faxes de papel normal. sobre todo. que hace una copia del documento original. La recepción de fax siempre requiere de un programa que se ejecute en segundo plano "escuchando" el módem en espera de una llamada entrante. Atari ST. Ya los Amstrad PCW y los MSX eran capaces de actuar de esa forma en su tiempo. Algunas ventajas de usar este sistema son: 101 . OS/2. Commodore Amiga y las estaciones de trabajo de Sun y SGI realizaban esa misma función. La llegada y. ahora son más modernos y sofisticados. programas para los PC (MS-DOS. pero al mejorar la tecnología se pasó a la escala de grises. Unos pocos ordenadores incorporaron en su propia carcasa todo lo necesario para actuar además como máquinas fax. Los primeros faxes sólo escaneaban en blanco y negro. del Grupo 2 al Grupo 4 inclusive. Contra la creencia popular. En sistemas operativos multitarea como Windows. y aún menos las que usaban una impresora láser.módem lo recibe y lo envía a la impresora. no es algo privativo de los PC o del sistema operativo MS Windows.

creado en 1980. Las resoluciones horizontal y vertical son las del estándar T.600 bps. y el tiempo que tardaría en llegar a su destino. mejor conocida como grupo 1 de fax.30 y T.30 y T.3. Desde entonces se han creado 4 normas o grupos : 1. Aunque ya obsoleto y no fabricado más. Algunos programas emuladores de fax: • • • • • Cheyenne Bitware (DOS y Windows) Mighty Fax (Windows) Winfax (Windows) Hylafax (GNU/Linux y otros Unix) [BGFAX] (DOS y Windows) Grupos de fax El fax se convirtió en una parte esencial de la micro o hiper empresa.2. a una velocidad de 14.4. 2. Estos faxes tardan 3 minutos en transmitir una página única. con una resolución vertical de 100 líneas por pulgada a una velocidad de 9. se basa en la Recomendación UIT-T T.• • • Los documentos enviados y/o recibidos pueden almacenarse en el disco duro. Los documentos pueden exportarse a formatos gráficos standar y enviarse por correo electrónico. a una velocidad de 2. 3. Para corregir esta deficiencia el Sector de Normalización de las Telecomunicaciones de la UIT (Unión Internacional de Telecomunicaciones. Los documentos salientes se imprimen directamente desde un editor de texto. se basa en las Recomendaciones UIT-T T. Estos faxes tardan de cuatro a seis minutos en transmitir una página única. se siguen empleando estos faxes al ser capaces de comunicarse con los faxes Grupo 3. pero la duda era cuál sería la eficiencia del envío y el problema de enviar entre América y Europa. Ahorro de papel: los documentos recibidos solo se imprimen si es necesario.4. creado en 1974. Tardan entre 6 y 15 segundos en transmitir una sola página (sin incluir el tiempo inicial de sincronizado e identificación de las máquinas). Este tipo de faxes es ya obsoleto y no se fabrican más.400 bps. se basa en las Recomendaciones UIT-T T.400 bps. con una resolución vertical de 98 líneas por pulgada. con varias combinaciones posibles: • o o Horizontal: 100 líneas por pulgada  Vertical: 100 líneas por pulgada Horizontal: 200 o 204 líneas por pulgada 102 . ITU en sus siglas en inglés) estableció en 1974 una norma mundial. creado en 1976.

se emplea también internet para transmitir los datos. T. A pesar del éxito del fax.70. Ha sido diseñado para operar a más de 64 kbit/s sobre redes digitales RDSI (Red Digital de Servicios Integrados. El fax se utiliza para enviar y recibir imágenes de todo tipo. e incluso de enviar un documento existente como fax. Utilidad Inicialmente. Inicialmente requerían de una tarjeta PCMCIA o de un puerto IrDA para comunicarse con el ordenador.6. El fax ha logrado ampliarse a todas las tecnologías de comunicaciones actuales. Si el receptor no dispone de conexión a internet.72. creado en 1984. que recoge todas las de la T. 103 . en inglés abreviada como ISDN). pero su eficiencia y el afán de modernización hicieron que se integrase posteriormente a los negocios. aunque la comunicación debe pasar por un puente entre la red analógica y la digital. T. finanzas y las compañías de seguros (propuestas. T.417. T. Japón fue el mayor usuario de esta tecnología. pero muchos culpan al fax de que la tecnología digital no haya avanzado demasiado como para empezar a adoptarla.6.4 ampliándolas. Se le han integrado luego tecnologías nuevas como un disco duro y un reproductor de semitonos. se basa en las Recomendaciones UIT-T T. El operador puede requerir un contrato especial para activar estas posibilidades en su red. Su resolución depende de la recomendación T. son muchas las compañías que todavía mantienen servicios de fax. pero muchos equipos actuales son capaces de recibir y visualizar faxes por sí mismos.521. el fax se usaba exclusivamente en el periodismo. Para obviar los costes en las comunicaciones a larga distancia. si el fichero de este puede enviarse como adjunto?). Es capaz de recibir faxes provenientes de un fax grupo 3 o 2. Los teléfonos móviles GSM son también capaces de enviar y recibir faxes.503. T. implantando tecnologías de punta a este aparato.411 a T.o Vertical: 100 o 98 líneas por pulgada (Standard) Vertical: 200 o 196 líneas por pulgada (Fine) Vertical: 400 o 391 (no 392) líneas por pulgada (Superfine) Horizontal: 300 líneas por pulgada  Vertical: 300 líneas por pulgada  Horizontal: 400 o 408 líneas por pulgada  Vertical: 400 o 391 líneas por pulgada    4. está muy lejos de formar parte de la denominada "oficina sin papeles".62. y tempranamente se anexó a un teléfono regular.563. T. Es ampliamente usado en sanidad (con legiones de expedientes aún en papel). T. suele ser una máquina conectada a la red telefónica correspondiente (analógica o RDSI) la que se encargue de transmitir el último tramo. Aunque en la actualidad el uso del fax disminuye en favor de internet y el correo electrónico (¿para qué imprimir y enviar por fax un documento.

Distinguimos en un extremo el terminal EMISOR y en el otro extremo el RECEPTOR. y presenta la ventaja de no ser crackeable. que ha supuesto una revolución en diferentes ámbitos.) entre otras. y la digitalización de todos los documentos.. por lo que es usado en la formalización y cancelación de contratos. 'Correos' ofrece servicios de fax y además el servicio burofax. sin lograr sustituirlo por otros medios de comunicación. ideas e información.partes amistosos de accidentes. Primero porque son ecológicas al reducir considerablemente el consumo de papel o tinta y la necesidad de una máquina específica. Telemática: Definimos comunicación como el proceso por el que se transporta información. que viajan por un medio físico. Al fax se le concede valor legal. Evolución El sistema de envío y recepción de fax también ha ido adaptándose a la evolución y desarrollo de las nuevas tecnologías de la comunicación. Ambos están vinculados por un CANAL de transmisión por donde viaja la información. la cuota del número y el servicio de fax. facturas. hasta convertirse en un importante canal de venta. mediante una línea telefónica. tercero porque son móviles al poder gestionar el servicio de fax desde cualquier lugar donde tengas acceso a tu correo electrónico incluido tu teléfono móvil y por cuarto porque son económicas ya que reducen los costes del servicio de fax en un 90% al incluir todo en un pequeño coste mensual. El termino TELEMATICA o TELEINFORMATICA conjunción de telecomunicaciones e informática se refiere a la disciplina que trata la comunicación entre equipos de computación distantes. también ha hecho evolucionar el sistema de fax. desde configurarse como una fuente de intercambio de conocimiento. Internet. La TRANSMISION DE DATOS es el movimiento de información codificada de un lugar a otro de señales que portan dichos datos por medio de sistemas de comunicación eléctrica. Este tipo de soluciones de fax virtual tienen enormes ventajas con respecto a los sistemas tradicionales. la cual es transmitida mediante señales. notas a mano de inspectores y peritos. El fax virtual o fax por Internet se basa en el mismo sistema de transmisión de datos que el fax tradicional. lo que supone una menor distorsión en el envío y recepción. 104 . pero sustituyendo los aparatos tradicionales de fax por plataformas Web o de correo electrónico.. segundo porque son eficientes al permitir la gestión de archivos electrónicos. En España.

Ambos modems deben operar con el mismo estándar de comunicación. • RED DE TELECOMUNICACIONES: Soporte para la comunicación. Un módem puede contener en su interior dos circuitos generadores de dos frecuencias (tonos) distintas. Cuando un módem transmite tonos se dice que modula o convierte la señal digital binaria proveniente de un computador en dichos tonos que representan o portan bits.) Cuando un módem transmite. 105 . Esto es. debe ajustar su velocidad de transmisión de datos. y el módem que contesta. En relación con la línea telefónica. o sea que origina la comunicación se designa "originate" o "local". visualizar y enviar datos. Sistema Teleinformático: Esta constituido por: Equipos informáticos (computadoras y terminales). Su función es permitir conectar un computador a una línea telefónica. colgar. o ser externo al mismo. responde. tipo de modulación. Así se gana tiempo. mientras el primero transmite y el segundo recibe. para enviar ceros y unos. recibe e interpreta comandos de este (discar. para poder transmitir. para recibir o transmitir información. dado que un módem no debe esperar al otro a que termine. atender llamadas que le hace otro módem. colgar. El módem puede estar en el gabinete de una PC (interno). el módem además de recibir/transmitir información. etc. en correspondencia con los que necesite enviar por vía telefónica.Las TELECOMUNICACIONES hacen referencia a la transmisión de datos a distancia. • Comunicación entre una computadora y otra: La comunicación se logra mediante la utilización de las redes telefónicas y modems. etc. con medios de transmisión y circuitos apropiados. este ultimo también puede transmitir y el primero recibir. también se encarga de esperar el tono. es el "answer" o "remoto". para recibir. procesar. El TELEPROCESAMIENTO permite que un sistema de computación utilice algún tipo de telecomunicación para procesar datos. Respecto del computador al cual esta conectado. corrección de errores y de compresión. El módem que llama. como sucede en "half dúplex". discar. Dos modems pueden intercambiar información en forma "full dúplex".

Interfaz RS-232C: A fin de que equipos de computación y modems de distintos fabricantes puedan interconectarse de manera universal. Registros de los modems: Un módem presenta un centenar de registros no volátiles. o sea en detectar los ceros y unos que cada tono representa. designados S0. El tipo de modulación ejemplificada. denominada PORTADORA (carrier). por otro lado. la norma americana rs-232c (ccitt v. y las convierte en los niveles de tensión correspondiente al 0 y al 1. con una frecuencia para el uno y otra para el cero. Frecuencia "portadora" en la comunicación entre modems: Los tonos de la figura de arriba. pueden considerarse como pertenecientes a una única onda que por la línea telefónica viaja de un módem a otro. de esta ultima recibe información analógica para que la convierta en digital.. por "portar" los unos y los ceros que se transmiten. Para que dos modems puedan comunicarse. y el módem. Estos guardan distintos parámetros que el usuario puede cambiar mediante comandos. la cual cambia de frecuencia según se envíen ceros o unos. un módem conectado esta incivilizado de forma deseada. referidos a la fijación de tiempos de respuesta y operación del módem. Conforme a la Electronic Industries Association (EIA) en cada extremo de la línea. apropiada para ser enviada por una línea telefónica. el computador se designa "equipo terminal de datos" (DTE). S2.Del mismo modo que el oído de la persona que en el extremo de la línea puede reconocer la diferencia de frecuencia entre los tonos del 0 y 1. S1. Denominación de Modem: La palabra módem deriva de su operación como MOdulador o DEModulador. para ser enviada al computador. se llama demodulacion. entre otras cosas deben usar la misma técnica de modulación.24 internacional) 106 ..S99. equipo para comunicaciones de datos" (DCE). De esta manera.. solo permite transmitir hasta 600 bits por segundo. Esta acción del módem de convertir tonos en señales digitales. otro módem en su lugar también detecta cual de las dos frecuencias esta generando el otro módem. Un módem por un lado recibe información digital de un computador y la convierte en analógica. Los modems tienen registros para almacenamiento temporario de datos en curso..

Protocolo de comunicaciones: En la comunicación modem-modem se debe cumplir otra secuencia de acciones y señales: 1: El módem local realiza una acción semejante a levantar el tubo. siendo en general el empleado por su sencillez para bajas velocidades de transmisión de datos. En la transmisión asincrónica los datos se envían como bytes independientes. Existe un conductor para " tierra" de las señales. al igual que cuando se almacenan en una memoria principal. 107 . Supongamos que se envía X dato de 8 bits. los 8 bits se envían en orden inverso a indicado. Es el modo de transmisión corriente vía módem usado en las PC.especifica características mecánicas. y que se puede comunicar a una velocidad (bps) y modulación (ambas normalizadas). para llevar a cabo las etapas de una comunicación. Uno de estos conductores se usa para transmitir de la PC al módem. Para poder distinguir un bit del siguiente cada bit debe durar igual tiempo T. y "stop"(siempre 1) de final de byte enviado. 3: El módem local responde a la serie de tonos. siendo que en la PC se usan 9 para la comunicación Pc-modem. Transmisión asincrónica de datos o protocolo "star-stop" : Los datos que maneja un módem están organizados en bytes separables. y el otro cuando el sentido de los datos es contrario (recepción). un conjunto de procedimientos a cumplir. y luego disca el numero telefónico del módem remoto. Este conector posee 25 conductores. constituye un protocolo. Un módem debe ajustarse a dos protocolos: • • El protocolo rs232c Protocolo estándar. En general. como los serie V de la ccitt. separados. Un módem comprende hardware para conectarlo a un port serie de PC. y negocia con el módem remoto la mayor velocidad de transmisión posible. funcionales y eléctricas que debe cumplir la interconexión entre un computador y un módem. Aparecen los bit de control "start" (siempre 0) que indica comienzo de carácter. En total son pues 10 bits (rendimiento del 80%). 2: El módem remoto lleva a cabo una acción equivalente a levantar el tubo y emite un tono o serie de tonos particulares que indican que ha respondió el llamado. pudiendo mediar un tiempo cualquiera t entre un byte y el siguiente. Si es externo se conecta a través del conocido conector de forma trapezoidal. que permite sensar en momentos adecuados (en sincronismo) el valor de los bits siguientes hasta el "stop". Los restantes cables con señales digitales sirven para funciones de control del módem. Para tal fin sirve el bit de start.

Si los bits errados son dos. ni bits de start y stop (aunque existen bytes de comienzo y final). se vuelve a transmitir el bloque. se recibe 01000010. y no hay forma de detectar un carácter mal recibido. pero por un ruido en la línea telefónica mientras el módem transmitía. pues este método supone solo un bit errado. Para el control del envío de archivos de programas existen los protocolos de archivo en los programas Xmodem. la paridad par seguirá. que se envían (byte a byte con paridad nula) con el agregado de un numero que es el resultado de un calculo polinomial sobre los bits de cada bloque. se puede usar el bit restante para detectar si se ha producido un solo error por inversión como el ejemplificado. se puede convenir que cada una representa dos bits 108 . Si como en el ejemplo dado. Entre dos computadores que se comunican. Caso contrario pedirá su retransmisión pues implica que un bit llego errado La paridad sirve para detectar si uno de los bits recibidos cambio de valor. se adopta la convención de que en cada carácter emitido o recibido debe haber un número par de unos. De no recibirlo. Bit de paridad: Supongamos que la PC que transmite envía A=01000001. En el receptor sobre cada bloque recibido se realiza al mismo calculo. son 7 bits. Velocidad de un modem y baudios: Hay que diferenciar entre velocidad de señalización y velocidad de transmisión de información. En cada segundo pueden ocurrir 2400 de estos cambios de amplitud. se indica 7E1. Así es factible enviar mas bytes por segundo. con paridad par ("even parity") y un bit de stop. Puesto que se puede cambiar entre cuatro amplitudes diferentes. Zmodem y otros. Esto hace a la diferencia que existe entre baudios y bits por segundo. de modo que se cumpla dicha paridad. Estos programas dividen al archivo a enviar en bloques de igual tamaño. Dado que ASCII básicamente se codifica en 7 bits. sin que se pueda notar el error. Cada uno de estos saltos de amplitud en dicho segundo. esta onda presenta una velocidad de señalización de 2400 baudios. es un baudio.En la transmisión sincrónica se envía un paquete de bytes sin separación entre ellos. que es la forma usual de comunicación entre dos PC. Cuando se usa 8 bits sin paridad ("null parity"). con un bit de stop. El computador que recibe debe verificar que cada carácter que le llega tenga la paridad convenida. da valor al bit restante citado. el código recibido será el de la letra C. La figura 1 ilustra una onda senoidal cuya amplitud puede saltar de valor entre cuatro niveles distintos. El computador que esta enviando. se indica 8N1. que es la mayor probabilidad de errores en transmisión telefónica. Si se obtiene el mismo número agregado se envía un simple OK.

Se usan cinco velocidades de señalización. Esta forma de cambiar la señal portadora para representar combinaciones binarias.determinados. siendo la máxima de 3429 baudios. e interpretar los dos bits que codifica. esta modulada en frecuencia (FSK= Frecuency-Shift-Keying= Codificación por cambio de frecuencia) En la figura se ejemplifico una onda portadora con modulación en amplitud. En pocos años. En un módem actual. Cada cambio de fase es como si la porción de onda que sigue a dicho cambio.4 milisegundos. con lo cual se tiene una velocidad de transmisión de 2400x2= 4800 bits por segundo. siendo que requiere que el emisor y el receptor sean muy complejos. Se agregaron otras técnicas que requieren efectos compensatorios del mismo tipo en el módem receptor. Con este método. y con 4 bits por cambio (baudio). se concreto en las normas V. Para superar los 600 baudios. una portadora se pudo modular a 2400 baudios. La primer técnica conocida como QAM (Quadrature Amplitude Modulation). que permite al módem receptor corregir errores a medida que recibe datos.32. la norma V. Resulta ser la más eficaz para transmitir datos binarios en líneas con ruido. codificando 12 bits por baudio. Cada velocidad implica una frecuencia distinta de portadora.22 bis. los cambios en la portadora pueden ser tanto de amplitud como de fase.TCQAM). se denomina modulación en fase (PSK=Phase-ShiftKeying=Codificacion por cambio de fase). La detección de cada amplitud (baud) puede hacerse cada 1/2400 de segundo= 0. Con la denominada "codificación entramada" o Trellis-TC. Esto se logro. Este tiempo es suficiente para que el módem pueda detectar un baud. siendo que en el presente este tipo de variación de la forma de una onda se usa en combinación con cambios en la fase de la misma. 109 . y con 4 bits por baudio se llego a 2400x4= 9600 bps. pura.600 bps.32 (QAM) elevo la frecuencia de la portadora. para portadora modulada a 600 baudios. Formas más usuales de modulación: Una onda que cambia entre dos frecuencias para codificar uno y cero. se adelantara (o atrasara) con relación a lo que debiera ser una forma senoidal continua. y la mínima de 2400. Mediante complejas técnicas se logro que la modulación se adaptara a cada instante al estado de la línea telefónica. se codifican 6 bits por baudio. existiendo una sola frecuencia para la transmisión como para la recepción. la velocidad de transmisión por las líneas telefónicas comunes fue aumentando 100 veces: de 300 a 33. agregando un bit extra cada cuatro (norma V. por lo que esta técnica supone la transmisión en un ancho de banda variable según el estado de la línea. con lo cual se podía transmitir hasta 600x4= 2400 bps. con lo cual para 2400 baudios se alcanzaron 2400x6= 14400 bps.

Velocidades de transmisión virtuales mediante compresión de datos y otras técnicas: Un módem que transmite 4800 bps. Cuando el módem se comunica con otro. operando bajo una misma norma. con lo cual la velocidad de transmisión se mejora notablemente (se recibe cuatro veces más rápido).Para 3429 baudios. con lo cual se alcanzo una velocidad de 33600 bps. puede negociar con el módem al que se conecto (si es inteligente). por lo cual los modems empezaron a contener circuitos para detectar y corregir errores. buscando el mayor ancho de banda utilizable compatible con la taza de error permitida (1 bit errado por cada millón) Posteriormente. Un módem rápido es mas caro. el mejor método de corrección. sondea unos 15 segundos la línea. enviando una sucesión de tonos. si transmite un carácter en ASCII con 10 bits. ahorrando tiempo y costo de servicio telefónico.42 LAPM &MNP 2. en realidad se transmiten 480x8= 3840 bps de información. Si la transmisión es asincrónica. Esto supone modems igualmente inteligentes. significa que a las mejoras anteriores se agrega la compresión de datos. teóricamente seria posible enviar 4800/10= 480 caracteres por segundo. los bloques no son grandes. a fin de que se pierda menos tiempo en esta tarea. Dado que de esos 10 bits son 8 de datos y 2 de para control start stop. formando bloques de caracteres (transmisión sincrónica). aumenta el numero de bits errados. En caso de retransmisión. Un módem que puede transmitir hasta 28800 bps. Se empezó a enviar y recibir los caracteres sin los bits de startstop.bis/MNP5. Si también cumple con la norma V. entre caracteres media un tiempo muerto variable. se envían bloques con menos caracteres. pero tarda menos tiempo en la transferencia de archivos (si el módem con el que se conecta es igualmente repudio e inteligente). para 3429 baudios se lograron 9. y con 8.8 bits por cambio. de donde resulta una velocidad real menor que los 3840 bps antes calculados. A mayores velocidades. Luego se hizo que la longitud de estos bloques este en función del ruido presente en la línea telefónica. Un módem que incorpora estas técnicas (V.3.42.4 bits por cambio de la señal se logra el máximo de 28800 bps.4). Cuando el ruido aumenta. 110 . con compresión de datos se pueden lograr velocidades de transmisión equivalentes a 28800x4= 115200 bps.

De esta forma se establece como operara un módem. • • • Al ser inicializado un programa de este tipo. dedicado a la demodulacion de las complejas señales analógicas. que le ordena tomar la línea telefónica. Para que se le pueda emitir un comando desde el teclado. Aunque el usuario no ordene comandos. que son datos fijos que contiene dicho programa. es mediante el comando de discado ATD. de un módem antes citados. Este hardware permite operar a grandes velocidades y que los modems sean multinorma.. en un módem podemos encontrar un microcontrolador. discar y esperar la portadora del módem con el que se comunica. S1. ATV1. ATL2. ATB1. Hardware de los modems inteligentes actuales: Hoy en ida. ATS0=n. 111 . preguntara por la marca o tipo de módem conectado. • Hacer que una PC emule una terminal de tecladoy pantalla tipo VT100.. y modifican los contenidos binarios de los registros del módem. Encontramos entre otros: ATE1. Los comandos se tipean precedidos por la sigla AT (ATtention). ANSI o TTY en comunicaciones con grandes computadoras (mainframes) • Permitir tipear comandos y que sean visibles en el monitor.Software necesario para operar un modem: Se los denomina "programas de comunicaciones". Típicamente puede realizar las siguientes funciones: Atender el teléfono y transferir archivos hacia otro computador Recibir archivos Llevar un directorio de números telefónicos y parámetros de otros computadores. un módem debe estar en "modo comando". • Manejar buffers para guardar la ultima información que se fue de pantalla (scrollback) • Ayudar sobre la operatoria en curso. detectar tono. Una de las formas de llevar al módem al "modo comunicación". El usuario tiene a su disposición en el modo comando un conjunto de órdenes para definir los contenidos de los registros S0. encargado de procesar los comandos que envía el usuario y un microprocesador (el digital signal processor – DSP). el programa de comunicaciones cuando es llamado inicializa los registros del módem con valores default. etc..

o 9600 baudios. barriéndola mediante sensores fotoeléctricos. El módem externo esta contenido en una caja propia. tienen un ancho de banda comprendido entre 300 y 3300 baudios Hz. Funcionamiento de un fax corriente: Para entender la operatoria de un fax modem. un sistema de impresión y un módem. pero debe conectase a un port serie. Dos aparatos de fax comunicados telefónicamente son como dos fotocopiadoras tales que una de ellas lee la hoja a copiar. Dentro de esta clasede módem debemos incluir los PCMCIA para notebooks. pero solo pueden enviar a 28800 bps. Presenta luces indicadoras que dan cuenta de la operación que esta realizando. El módem se encarga de convertir las señales binarias digitales en analógicas. y otro para obtener energía. Así permiten recibir datos a 56 Kbps desde Internet. a través de una línea telefónica establecida entre dos maquinas de fax. No ocupa ningún zócalo. para convertir la imagen en un conjunto de puntos de valor 0 (blancos) y 1 (negros). el servicio de fax o facsímil permite obtener una copia de la misma en un lugar distante. un sistema de barrido de imagen. Ocupa un zócalo disponible y no necesita usar un port serie. que son transmitidos como señales eléctricas binarias hacia la otra fotocopiadora.Diferencias entre los modems internos y externos: Un módem interno esta contenido en una plaqueta similar a las que se enchufan en el interior del gabinete de una PC. Los denominados modems de 56 Kbps pueden transmitir información analógica o digital. constituye un techo dificil de superar. primero debemos entender la de un fax común y corriente. Típicamente las maquinas de fax para establecer una comunicación envían información de control a 300 baudios. Esta recibe dichas señales y genera una reproducciónde la hoja original usando su sistema de impresión. La velocidad de 33600 bps de los módem actuales. Estas no fueron pensadas para transmitir datos. amen de un procesadory memoria. Es adaptable a distintas computadoras. Modems de alta velocidad (digitales) actuales: Las líneas telefónicas para señales analógicas. 112 . el módem funciona a 28800bps. Los 3000 Hz citados. Cada maquina de fax contiene un teléfono. limitan la velocidad de transmisión. Debe también mencionarse que los citados 56Kbps son un limite que solo se alcanza en determinado estado optimo de las líneas. requiere un cable para conectarse a la PC. 4800. Para el resto de las aplicaciones que no sean Internet o BBS. Dada una hoja con texto. y luego transmiten los datos a 2400.

Después sigue un código de separación (c). Le sigue un código de comienzo o start code (b). Las lectoras son las encargadas de convertirlos en unos y ceros que irán al computador. Códigos de barra: En general los códigos de barra no son descifrables por las personas.La resolución se refiere a la densidadde puntos usada para reproducir un fax. en cuyo caso debe sonar la campanilla telefónica. así como software para manejar archivos de fax. Representan caracteres de información mediante barras negras y blancas dispuestas verticalmente. se necesita un escáner para convertir (digitalizar) dicho escrito o dibujo en un archivo que maneje el computador. siendo que a un computador se conecta a través de la interfaz port serie. Puede ser interno o externo. siendo la más ancha un múltiplo de la mas angosta. El ancho de las barras y espacios puede ser variable. para enviar automáticamente fax a partir de determinados horarios en que son mas baratas las tarifas telefónicas. Estas ultimas se duplican para una resolución fina. Posibilita la recolección de datoscon rapidez. según los estándares existentes. Lectoras de códigos de barras El lector de códigos de barra esta ampliamente difundido en el comercio y en la industria. facilidad y bajo costo. y el software de comunicaciones para recibir y enviar faxes. 98 líneas verticales y 203 horizontales. puede tenerse en cada pulgada cuadrada. Si se necesita enviar un texto o un dibujo que esta solo en papel. que indica que luego viene el código con los dígitos de información. el margen (a) equivale a 9 módulos. En la figura. otro de final o stop code (d). en comparación con la lectura visual de códigos numéricos seguida de entrada manual por teclado. Algunas maquinas de fax permiten la transmisión diferida. 113 . muy baja tasa de errores. o sea que no han sido originados por un computador. Modem fax: Un módem fax supone la existencia de un computador con un módem. La operatoria para transmitir o recibir con un fax-modem es más compleja que apretar un simple botón como en la maquina de fax común. Otra opción es el selector automático de voz/datos que identifica si un llamado es para fax o si se trata de una persona. En binario las barras significaran unos y los espacios ceros. y por ultimo otra zona vacía (e).

También existen códigos de barra en 2 dimensiones. Lectoras de códigos de barra: Existen dos clases de lectoras: De haz fijo y de haz móvil. y 47433 al producto Y. Para que la lectura progrese debe existir un movimiento relativo del código respecto a la lectora o a la inversa. como ser 200 caracteres en una pulgada cuadrada. estos reflejaran mas luz que las barras. Primero se suman los dígitos de las posiciones impares: 0+3+0+4+4+3= 14. debiendo ser este resultado igual al dígito extremo derecho. En ambos casos una fuente luminosa ilumina la superficie del código. La luz reflejada es detectada por un elemento fotosensor. puede ser de cualquier longitud. Después se suman 14+27= 41. La corriente eléctrica que circula por el fotosensor es proporcional a la intensidad del haz reflejado (que es la magnitud censada). Siendo las barras oscuras y los espacios claros. El primer dígito indica la categoría del producto y lo que los dígitos siguientes representaran. siendo que la barra más delgada corresponde a un modulo. Esto hace a la diferencia entre las dos clases de lectoras citadas. Cada dígito se compone de 7 módulos. que como el caso del escáner es una señal analógica. produciendo los espacios claros una mayor corriente electrica en el elemento fotosensor. deberá convertirse en digital (unos y ceros) para ser procesada. que se deben escanear mediante un escáner o una cámara fotográfica digital. útil para espacios pequeños. El código entrelazado 2 de 5 (ITF). El grupo 43607 representa al fabricante X. Los datos se codifican mediante puntos. separados entre 2 barras y 2 espacios. también de 12 dígitos. Al presente existen unos 20 códigos de barra. o bien debe existir un haz láserque se desplaza para explorar el código. y a un tipo de producto concreto. El código 39 codifica números y letras para usos generales.Uno de los códigos de barras mas corrientes es el UPC (Universal Product Code). Por lo tanto. usado en la cubierta de libros y revistas. Cada codificación representa 12 dígitos que permiten identificar un producto mediante barras negras y espacios de distintos grosores. y luego de las posiciones pares sin considerar el 9 de verificación: 4+6+7+7+3= 27. Sean los siguientes 12 dígitos 0 43607 47433 9. Los dígitos tienen distinto significado según su posición relativa. Es un código muy compacto. Si es un 0 implica que los dígitos siguientes codificaran al fabricante. y se resta 41 al múltiplo de 10 siguiente: 50-41= 9. siendo que codifica dos dígitos por vez. siendo muy popular. 114 . existe el código ISBN. Este es uno de los pocos códigos en que los espacios en blanco tienen significado. El dígito extremo derecho sirve para verificación. Permiten almacenar en un área muy pequeña mucha información. pero con un numero par de dígitos. Este código se usa mucho en la industria y para inventarios. Emparentado con el UPC.

para que un haz fijo pueda ser reflejado y censado. Presenta una de las ventajas mas importantes no es crackeable. facturas. Estas lectoras son más exactas que las anteriores. • Lectora fija con haz láser móvil: Un rayo láser rojo anaranjado barre en un sentido a otro el código de barras decenas de veces por segundo. Es ampliamente usado en sanidad (con legiones de expedientes aún en papel). Por la ventana de salida parece como si se generan muchos haces láser. pero muchos culpan al fax de que la tecnología digital no haya avanzado demasiado como para empezar a adoptarla. partes amistosos de accidentes. A pesar del éxito del fax. se debe desplazar de toda la longitud del código. que a su vez dirige el haz hacia otros espejos. son muchas las compañías que todavía mantienen servicios de fax. notas a mano de inspectores y peritos.) entre otras. Aunque en la actualidad el uso del fax disminuye en favor de internet y el correo electrónico (¿para qué imprimir y enviar por fax un documento. si el fichero de este puede enviarse como adjunto?). • Lectora de ranura fija: El operador debe desplazar el código a través de una ranura de la lectora.Diferentes tipos de lectoras: • Lectora manual: Tienen forma de una lapicera... Conclusión: El fax ha logrado ampliarse a todas las tecnologías de comunicaciones actuales. 115 . Un rayo láser es dirigido por un espejo móvil. finanzas y las compañías de seguros (propuestas. Esto permite leer un código de barras que este en distintas ubicaciones espaciales respecto a la ventana citada. Es de haz fijo. está muy lejos de formar parte de la denominada "oficina sin papeles.

Las fibras ópticas no conducen señales eléctricas por lo tanto son ideales para incorporarse en cables sin ningún componente conductivo y pueden usarse en condiciones peligrosas de alta tensión.000 pares de cable de cobre convencional para brindar servicio a ese mismo número de usuarios. con bajas pérdidas de señal. y en salud. para que sirve. transmisión por fibra óptica. Comparado con el sistema 116 . e incluso operaciones remotas. mientras que se requiere de 10. ligeras. pero harán muy largo y complicado de entender la clase. el cual es costoso y presenta dificultades. La abundancia de información en este tema. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún circuito adicional de protección y no hay problemas debido a los cortos circuitos. Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente compactos: El grosor de una fibra es similar a la de un cabello humano. De esta forma es considerable el ahorro en volumen en relación con los cables de cobre. Se adjuntara un video acerca de la fabricación de las fibras. que es la guía de la onda luminosa. lo que también eleva los costos. Fabricadas a alta temperatura con base en silicio. ventajas y desventajas. Tienen un gran ancho de banda. nos ha obligado a sintetizar algunos temas.Fibra Óptica I El objetivo de este trabajo es conocer mejor los aspectos de un medio de transmisión de datos que causo una revolución en las comunicaciones: la fibra óptica. su proceso de elaboración es controlado por medio de computadoras. entre sus principales características se puede mencionar que son compactas. conversores. Aquí se explicará que es. sea uniforme y evite las desviaciones. entre otros temas. con la desventaja que este último medio ocupa un gran espacio en los ductos y requiere de grandes volúmenes de material. para permitir que el índice de refracción de su núcleo. que puede ser utilizado para incrementar la capacidad de transmisión con el fin de reducir el costo por canal. proceso de fabricación. amplia capacidad de transmisión y un alto grado de confiabilidad debido a que son inmunes a las interferencias electromagnéticas de radio-frecuencia. Con un cable de seis fibras se puede transportar la señal de más de cinco mil canales o líneas principales. internet. Ella es la responsable de la difusión de servicios interactivos. quizá interesantes de explicar.

por ello se le considera el componente activo de este proceso. sistemas de televisión por cable y transmisión de información de imágenes astronómicas de alta resolución entre otros. similar a la señal original. En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa. de señal de entrada. la fibra óptica funciona como medio de transportación de la señal luminosa. línea de fibra óptica (primer tramo). corrector óptico. amplificador y señal de salida. computación. empalme. la fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho de banda. en el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. fuente de luz. sin embargo. línea de fibra óptica (segundo tramo).convencional de cables de cobre donde la atenuación de sus señales (decremento o reducción de la onda o frecuencia) es de tal magnitud que requieren de repetidores cada dos kilómetros para regenerar la transmisión. se puede decir que este proceso de comunicación. generado por el transmisor de LED'S (diodos emisores de luz) y láser. corrector óptico. El sistema básico de transmisión se compone en este orden. amplificador. En resumen. automatización industrial. cuya misión consiste en transformar la señal luminosa en energía electromagnética. Sin que halla necesidad de recurrir a repetidores lo que también hace más económico y de fácil mantenimiento este material. en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor. Una vez que es transmitida la señal luminosa por las minúsculas fibras. receptor. Concepto de transmisión. Originalmente. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmis ión 117 . con el tiempo se ha planteado para un amplio rango de aplicaciones además de la telefonía.

El dispositivo de acoplamiento del receptor también es un acoplador mecánico. En un transmisor de fibra óptica la fuente de luz se puede modular por una señal análoga o digital. La guía de fibra es un vidrio ultra puro o un cable plástico. Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales. El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de avalancha). la cantidad de luz emitida es proporcional a la corriente de excitación. por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de entrada en una corriente que se usa para dirigir la fuente de luz. Los bloques principales de un enlace de comunicaciones de fibra óptica son:  Transmisor  Receptor  Guía de fibra El transmisor consiste de una interface analógica o digital. El receptor incluye un dispositivo conector. debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización.mediante fibra óptica. El conversor de voltaje a corriente sirve como interface eléctrica entre los circuitos de entrada y la fuente de luz. La fibra óptica consiste de un núcleo de fibra de vidrio o plástico. un foto detector. se requiere un conversor corriente a voltaje que transforme los cambios en la corriente del detector a cambios de voltaje en la señal de salida. Ambos convierten la energía de luz en corriente. Sistemas de comunicación de fibra óptica. La conexión de esa fuente a la fibra es una interface mecánica cuya función es acoplar la fuente de luz al cable. su luminosidad. Además su pequeño tamaño. una cubierta y una capa protectora. longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas. En consecuencia. una fuente de luz y un adaptador de fuente de luz a fibra. un conversor de voltaje a corriente. La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección láser ILD. un conversor de corriente a voltaje un amplificador de voltaje y una interface analógica o digital. 118 .

son estos dos elementos los que limitan la velocidad de transmisión. Mayor capacidad debido al ancho de banda mayor disponible en frecuencias ópticas. estarán disponibles de modo interactivo una amplia variedad de servicios de información para el consumidor. Cada una de las fibras ópticas.. La seguridad en cuanto a instalación y mantenimiento. por lo tanto. 2. Resistencia a extremos ambientales. 5. y a diferencia de los pulsos electrónicos.. Capacidad de transmisión: La idea de que la velocidad de transmisión depende principalmente del medio utilizado. Inmunidad a interferencia estática debida a las fuentes de ruido. 3. del orden de miles de millones de bits por segundo. 4. Las fibras ópticas poseen capacidades de transmisión enormes. Una fibra es un conductor óptico de forma cilíndrica que consta del núcleo (core). 1. Inmunidad a transmisiones cruzadas entre cables. gases y variaciones de temperatura. Se utilizan varias clases de vidrios y plásticos para su construcción. un recubrimiento (clading) que tienen propiedades ópticas diferentes de las del núcleo y la cubierta exterior (jacket) que absorbe los rayos ópticos y sirve para proteger al conductor del medio ambiente así como darle resistencia mecánica. se conservo hasta el advenimiento de las fibras ópticas. los impulsos luminosos no son afectados por interferencias causadas por la radiación aleatoria del ambiente. Cuando las compañías telefónicas reemplacen finalmente los cables de cobre de sus estaciones centrales e instalaciones domiciliarias con fibras ópticas. incluyendo la TV de alta definición. causadas por inducción magnética. ya que ellas pueden transmitir a velocidades mucho más altas de lo que los emisores y transmisores actuales lo permiten. Además.Forma Un filamento de vidrio sumamente delgado y flexible (de 2 a 125 micrones) capaz de conducir rayo ópticos (señales en base a la transmisión de luz). Las fibras de vidrio y los 119 . Ventajas de la fibra óptica. Son menos afectadas por líquidos corrosivos. puede transportar miles de conversaciones simultáneas de voz digitalizada.

5. Desventajas A pesar de las ventajas antes enumeradas. 4.1  No existen memorias ópticas Cables Ópticos. 8. en muchos casos. Supresión de ruidos en las transmisiones. especialmente en el campo. Red redundante. tales como: 1. como: 1. 6.  Necesidad de usar transmisores y receptores más caros  Los empalmes entre fibras son difíciles de realizar. Mayor número y rapidez en la solicitud y entrega de nuevos servicios. lo que dificulta las reparaciones en caso de ruptura del cable  No puede transmitir electricidad para alimentar repetidores intermedios  La necesidad de efectuar. Alta confiabilidad y privacidad en sus comunicaciones telefónicas. Enlaces E1 (2Mb/s) para conexión de PABX La posibilidad en el futuro de conexión de nuevos servicios como multimedia o sistemas de televisión por cable. Transmisión de datos de Alta Velocidad 2. 2. pensando en esto empresas como la ETB crearon el proyecto de digitalización de la red de abonado en fibra óptica.plásticos no son conductores de electricidad. En el último kilómetro es donde se presenta con mayor frecuencia problemas y daños en las comunicaciones de los clientes.. Un excelente medio para sus comunicaciones. 3. 7. procesos de conversión eléctricaóptica  La fibra óptica convencional no puede transmitir potencias elevadas. 120 . Tiempos de respuesta mínimos en la reparación de daños. la fibra óptica presenta una serie de desventajas frente a otros medios de transmisión.. Gran ancho de banda También la fibra óptica es una plataforma para la prestación de otros servicios. siendo las más relevantes las siguientes:  La alta fragilidad de las fibras. La fibra es el soporte ideal por todas las ventajas que brinda. se pueden usar cerca de líquidos y gases volátiles. Posibilidad de daño casi nula. Conexión directa desde centrales hasta su empresa.

lo que conocemos como cable óptico. Rango de temperatura y medio ambiente en donde el cable va a operar. Escoger los materiales de los elementos del cable con mínimas diferencias en sus coeficientes de expansión térmica. facilidad de pelado. El propósito básico de la construcción del cable de fibra óptica es el mismo. suspendido en postes. peso. torsión. facilidad de alineación del cable y la fibra. Esfuerzo máximo permitido en la fibra durante su fabricación. 3. 2.. 4. estas deben ser protegidas contra esfuerzos mecánicos. 3.Para poder utilizar fibras ópticas en forma practica. Aislar la fibra de los demás componentes del cable. límite de tensión. Evitar cargas o esfuerzos mecánicos sobre las fibras. Dicha estructura de cables ópticos variará dependiendo de sí el cable será instalado en ductos subterráneos.. Para ello se les proporciona una estructura protectora. Parámetros de una fibra óptica. resistencia al fuego. Las propiedades esenciales en el diseño del cable son la flexibilidad. Flexibilidad 4. atenuación estable. sumergido en agua etc. Los parámetros para formar un cable especial son: 1. determina la fuerza mínima de ruptura de la fibra y la fuerza requerida para el miembro de tensión. Mantener estables la transmisión y las propiedades de rigidez mecánica durante el proceso de manufactura. identificación de fibras. instalación y operación. formando así. 2. vibración. instalación y servicio. para determinar la configuración del cable y el límite de tolerancia de micro curvaturas. etc. humedad y otros factores que afecten su desempeño. paralela elección del tipo de materiales a utilizar tomando en cuenta su coeficiente de expansión térmica y su cambio de dimensiones en presencia de agua. enterrando directamente. Existen varios parámetros que caracterizan a una fibra óptica. Fuerza lateral dinámica y estática máxima ejercida sobre la fibra. Se habla de parámetros 121 . Mantener las fibras cerca del eje central y proporcionar espacio a las fibras para su mantenimiento. facilidad de cortado. Para cumplir estos requerimientos se observan las siguientes recomendaciones: 1.

esto lo convierte en un medio de comunicación 100% inmune a todo tipo de interferencias electromagnéticas a su alrededor y. El fenómeno puede ser provocado por esfuerzos durante la manufactura e instalación y también por variaciones dimensionales de los materiales del cable debidos a cambios de temperatura. así como también de los diámetros del núcleo y 122 . Esto no sucede con el cobre. En cuanto a los parámetros de transmisión se tiene:  Atenuación. Este es uno de los principales factores que motivaron su uso militar ya que para poder obtener información de ella hay que provocarle un daño. Micro curvatura.  Inmunidad a las Interferencias: El uso de medios transparentes para la propagación de ondas electromagnéticas en forma de luz hace que la fibra óptica no necesite voltajes ni de corrientes.. daño que podría detectarse fácilmente con equipo especializado. Entre los parámetros estructurales se encuentra:  El perfil de índice de refracción. La sensibilidad a las micro curvaturas es función de la diferencia del índice de refracción..estructurales y de transmisión que establecen las condiciones en las que se puede realizar la transmisión de información. Fuerzas laterales localizadas a lo largo de la fibra dan origen a lo que se conoce como micro curvaturas. como el caso de pozos petroleros y las industrias químicas.  La apertura numérica. por lo tanto. es un medio de comunicación altamente confiable y seguro. donde basta con dejar el conductor al descubierto. en donde existe la necesidad de transportar la información a través de medios explosivos.  Ancho de banda.  El diámetro del núcleo.  Longitud de onda de corte. El hecho de no necesitar corrientes ni voltaje hace que la fibra óptica sea idónea para aplicaciones en donde se requiere de una probabilidad nula de provocar chispas.

Tipos básicos de fibras ópticas  Multimodales  Multimodales con índice graduado  Monomodales 123 .  Reducir variaciones técnicas de las fibras protegidas con pequeños coeficientes de expansión térmica disponiéndolas alrededor de un elemento con buenas propiedades térmicas.. Es evidente que las micro curvaturas incrementan las pérdidas ópticas. el eje de la fibra puede curvarse severamente causando grandes incrementos en las perdidas ópticas.. cuando trabaja para contraer a la fibra. Para prevenir esta situación se toma en cuenta las siguientes consideraciones:  Mantener un radio de curvatura determinada.  El esfuerzo de contracción que ocurre a bajas temperaturas debido al encogimiento de los elementos del cable. Por lo tanto. El curvado de una fibra óptica es causado en la manufactura del cable. Dadas las razones anteriores. seleccionando el radio y la longitud del cableado. no hay cambio en las perdidas ópticas. así como también por dobleces durante la instalación y variación en los materiales del cable debidos a cambio de temperatura.del revestimiento. al evaluar los diseños de los cables se debe poner especial atención en:  La carga transversal trabajando en la fibra durante el cableado. este esfuerzo provoca que la fibra forme bucles y se curve. Los esfuerzos que provoca la torcedura de las fibras son básicamente una fuerza transversal y un esfuerzo longitudinal. Curvado. Sin embargo. El es fuerzo longitudinal no provoca torcedura cuando trabaja para alargar la fibra. instalación y utilización. de tal manera que la perdida óptica se incrementa.

la distancia a la que se puede trasmitir esta limitada. Los diferentes rayos ópticos recorren diferentes distancias y se desfasan al viajar dentro de la fibra. 124 . Fibra multimodal con índice graduado En este tipo de fibra óptica el núcleo esta hecho de varias capas concéntricas de material óptico con diferentes índices de refracción. Por esta razón. La propagación de los rayos en este sigue un patrón similar mostrado en la figura.Fibra multimodal En este tipo de fibra viajan varios rayos ópticos reflejándose a diferentes ángulos como se muestra en la figura.

No sufre del efecto de las otras dos pero es más difícil de construir y manipular. Núcleo. Es también más costosa pero permite distancias de transmisión mayores. La fibra óptica ha venido a revolucionar la comunicación de datos ya que tiene las siguientes ventajas:  Gran ancho de banda (alrededor de 14Hz)  Muy pequeña y ligera  Muy baja atenuación  Inmunidad al ruido electromagnético Para transmitir señales por fibra óptica se utiliza modulación de amplitud sobre un rayo óptico. Construcción. por lo tanto. la ausencia de señal indica un cero y la presencia un uno. miembros de fuerza. Actualmente se utilizan velocidades de transmisión de 50. y una o más capas protectoras. 100 y 200 Mbps.En estas fibras él numero de rayos ópticos diferentes que viajan es menor y. La transmisión de fibra óptica es unidireccional. cubierta. Fibra monomodal Esta fibra óptica es la de menor diámetro y solamente permite viajar al rayo óptico central. Las principales variantes son: 125 . sufren menos el severo problema de las multimodales. búferes. pero experimentalmente se han transmitido hasta Gbps sobre una distancia de 110 Kms. tubo protector.

Tubo suelto. Hilos múltiples: Para aumentar la tensión.1. Rodeando al cable hay un búfer primario y uno secundario que proporcionan a la fibra protección de las influencias mecánicas externas que ocasionarían rompimiento o atenuación excesiva. Cada fibra está envuelta en un tubo protector. 4. Fibra óptica restringida. 2. 126 . hay un miembro central de acero y una envoltura con cinta de Mylar. Listón: Empleada en los sistemas telefónicos Tiene varios miembros de fuerza que le dan resistencia mecánica y dos capas de recubrimiento protector térmico. 3.

la cual mejora la eficacia del detector. Las condiciones que debe cumplir un fotodetector para su utilización en el campo de las comunicaciones.  Rapidez de respuesta (gran ancho de banda). son las siguientes:  La corriente inversa (en ausencia de luz) debe de ser muy pequeña.  Detectores APD: El mecanismo de estos detectores consiste en lanzar un electrón a gran velocidad (con la energía suficiente).  de germanio: aptos para trabajar con longitudes de onda comprendidas entre 1000 y 1300 nm y con un rendimiento del 70%. El tipo más sencillo de detector corresponde a una unión semiconductora P-N. Se limitan a obtener una corriente a partir de la luz modulada incidente. Hay dos tipos de detectores los fotodiodos PIN y los de avalancha APD. Se utiliza principalmente en sistemas que permiten una fácil discriminación entre posibles niveles de luz y en distancias cortas. esta corriente es proporcional a la potencia recibida.  Detectores PIN: Su nombre viene de que se componen de una unión P-N y entre esa unión se intercala una nueva zona de material intrínseco (I). contra un átomo para que sea capaz de arrancarle otro electrón.Corriente eléctrica Este tipo de conversores convierten las señales ópticas que proceden de la fibra en señales eléctricas. es decir. Estos detectores se pueden clasificar en tres tipos:  de silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90% trabajando en primera ventana. Requieren alta tensión de alimentación (200-300V).  El nivel de ruido generado por el propio dispositivo ha de ser mínimo. 127 . para así poder detectar señales ópticas muy débiles (alta sensibilidad). y por tanto. a la forma de onda de la señal moduladora. Se fundamenta en el fenómeno opuesto a la recombinación. en la generación de pares electrón-hueco a partir de los fotones.Conversores Luz.

un amplificador óptico es un dispositivo que amplifica una señal óptica directamente. amplificar en eléctrico y volver a pasar a óptico. de compuestos de los grupos III y V. wavelength division multiplexing). Típicamente. las longitudes de onda de bombeo son 980 nm o 1480 nm y para obtener los mejores resultados en cuanto a ruido se refiere.25 dBm  Ganancia interna: 25 . Amplificador óptico En fibra óptica.50 dB  Variación de la ganancia: +/. Algunas características típicas de los EDFAs comerciales son:  Baja figura de ruido (típicamente entre 3-6 dB)  Ganancia entre 15-40 dB  Baja sensibilidad al estado de polarización de la luz de entrada  Máxima potencia de salida: 14 . sin la necesidad de convertir la señal al dominio eléctrico.5 dB  Número de láseres de bombeo: 1 . Amplificador de fibra dopada con Erbio (EDFA) El amplificador de fibra dopada más común es el EDFA (del inglés.  Amplificadores de fibra dopada Amplificadores en fibra son amplificadores ópticos que usan fibra dopada. Un amplificador óptico es capaz de amplificar un conjunto de longitudes de onda (WDM.0. SOA) Los amplificadores ópticos de semiconductor tienen una estructura similar a un láser 128 . Estos amplificadores necesitan de un bombeo externo con un láser de onda continua a una frecuencia óptica ligeramente superior a la que amplifican. normalmente con tierras raras.6  Longitud de onda de bombeo: 980 nm o 1480 nm2  Ruido predominante: ASE (Amplified Spontaneous Emission) Amplificador óptico de semiconductor (Semiconductor optical amplifier. debe realizarse en la misma dirección que la señal. Erbium Doped Fiber Amplifier) que se basa en el dopaje con Erbio de una fibra óptica.

en la actualidad. Amplificadores Raman Estos dispositivos se basan en amplificar la señal óptica mediante el efecto Raman. 129 . A diferencia de los EDFAs y de los SOAs. El anti reflectante incluye un antireflection coating y una guía de onda cortada en ángulo para evitar que la estructura se comporte como un láser. La señal de bombeo se puede acoplar a la fibra tanto en la misma dirección en la que se transmite la señal (bombeo codireccional) o en el sentido contrario (bombeo contradireccional). El amplificador óptico de semiconductor suele ser de pequeño tamaño y el bombeo se implementa de forma eléctrica. Podría ser menos caro que un EDFA y puede ser integrado con otros dispositivos (láseres.2 W para amplificación en banda L en fibra monomodo estándar).Fabry-Perot salvo por la presencia de un anti reflectante en los extremos. los amplificadores Raman se basan en un una interacción no lineal entre la señal óptica y la señal de bombeo de alta potencia. También se está estudiando su uso para implementar puertas lógicas. Es más habitual el bombeo contradireccional para evitar la amplificación de las componentes no lineales.). Los SOAs presentan mayor factor de ruido. De esta forma. El máximo de ganancia se consigue 13 THz (unos 100 nm) por debajo de la longitud de onda de bombeo. son sensibles a la polarización. Para obtener una buena amplificación es necesario usar potencias de bombeo elevadas (de hasta 1 W y hasta 1. Su elevada no-linealidad hacen atractivos los SOAs para aplicaciones de procesado como la conmutación toda óptica o la conversión de longitud de onda. la fibra convencional ya instalada puede ser usada como medio con ganancia para la amplificación Raman.... Sin embargo. moduladores.. es mejor emplear fibras especialmente diseñadas (fibra altamente no lineal) en las que se introducen dopantes y se reduce el núcleo de la fibra para incrementar su no linealidad. son muy no lineales cuando se operan a elevadas velocidades. Sin embargo. las prestaciones no son tan buenas como las que presentan los EDFAs. menos ganancia.

el endoscopio emite una señal luminosa que. electrodos de cauterización. La amplitud de variación de estos agentes externos es. los sensores son un punto bastante importante en el que se aplica la tecnología de la fibra óptica. etc. están siendo sustituidos los sistemas tradicionales por los modernos fibroscopios. vaginoscopios gastroscopios y laparoscopios.Normalmente se emplean más de dos diodos de bombeo. por tanto. Una fibra se encarga de transportar la luz al interior del organismo y la otra lleva la imagen a un monitor. La información requerida será proporcionada por sensores que incluyen fibras y aprovechan su receptividad a los estímulos mencionados. Por otra parte. pinzas para toma de muestras. broncoscopios. la cual nos permite con gran precisión la exploración de cavidades internas del cuerpo humano. tras iluminar la zona observada. plano de polarización o frecuencia. la aplicación de esfuerzos mecánicos. su fase. Hay sensores de muchos tipos que incluyen esta tecnología. La fibra óptica no nos plantea este problema. esta es recogida por el haz de fibras ópticas. incluyen ya esta tecnología. evacuación de líquidos. Los fibroscopios realizados con ayuda de las técnicas opticoelectrónicas cuentan con un extremo fijo o adaptable para la inserción de agujas. tales como: 130 . Gracias a la exactitud que nos proporciona este medio. No se producen distorsiones de la imagen ya que la alineación de las fibras se mantiene a lo largo del tubo. Para la obtener las imágenes de la región corporal que se explora. medíble por medio de fibras ópticas y aplicable a los entornos citados. alteraciones térmicas y campos eléctricos o magnéticos modifica determinadas características de las fibras. locales de industrias con emanaciones. APLICACIONES DE LA FIBRA ÓPTICA EN SENSORES: Los sistemas eléctricos convencionales son a menudo inadecuados en entornos de altas tensiones y zonas con campos interferentes. como su índice de refracción o su forma. tubos para la introducción de anestésicos. El nivel de ruido que se obtiene es bajo especialmente cuando se usa junto con EDFAs . rectoscopios. que a su vez provocan cambios en la intensidad de la luz guiada. APLICACIONES DE LA FIBRA ÓPTICA EN LA MEDICINA: En este campo son evidentes las ventajas que puede aportar el uso de la fibra óptica como ayuda a las técnicas endoscópicas clásicas y. La imagen se recoge en la lente que maneja el especialista. APLICACIONES. de hecho. Diversos aparatos como laringoscopios.

giroscopios. ya que es imposible seguir electrónicamente un cable de fibras hasta llegar al equipo 131 . No por esto deja de ser interesante esta propiedad. la más importante de las cuales son flexibilidad geométrica. gran ancho de banda y una gran sensibilidad . y otros dispositivos. También es muy importante para el empleo de fibras es su inmunidad a las detecciones de carácter electromagnético. De este modo se reduce notablemente la necesidad de la codificación de mensajes en virtud de la seguridad antidetección inherente a las fibras. y que justifica su aplicación militar. Sensores de aceleración. en las que el impulso de las tecnologías avanzadas venía provocado a veces por necesidades militares previas. en este caso el estamento militar se ha visto favorecido posteriormente por los desarrollos conseguidos en la industria civil de las telecomunicaciones. lo que proporciona importantes ahorros logísticos de material de campaña y personal. Sensores eléctricos y magnéticos Sensores de rotación. Todo esto es continuamente aplicado a instrumentos de la vida cotidiana. de modo que no le ha sido preciso realizar grandes inversiones para proyectos específicos. APLICACIONES MILITARES DE LOS SISTEMAS DE FIBRAS En contraste con situaciones anteriores. es el poco peso de los cables de fibras. Estos dispositivos y exhibe numerosas ventajas. magnetómetros. Otra razón de tanta importancia como la anterior. aunque debe advertirse que sí pueden ser interferidas por modificación de la polarización del haz de luz.• • • • • • Sensores acústicos. como por ejemplo habilidad para detectar señales de niveles muy bajos y con pequeños cambios. acelerómetros. tales como hidrófonos. Sensores de presión Sensores de temperatura. Los beneficios de esta tecnología para los militares radican fundamentalmente en la seguridad de este medio de transmisión frente a las comunicaciones por radio y cables convencionales. no de su intensidad. inmunidad interferencia electromagnética y pulsos electromagnéticos. así como su reducido tamaño.

industrias de altos componentes inflamables. Una aplicación táctica muy interesante es el uso de la fibra para la colocación de rádares distantes del centro de operaciones. nos permite con suma facilidad iluminar zonas especiales sometidas a toxicidades. ya que. explotaciones mineras. riesgos de incendio. la capacidad de transmisión. en el caso de las actuales fibras monomodo ha mejorado notablemente su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento de las fibras multimodo anteriores. aumentando considerablemente la visión de estas a los conductores nocturnos.. evitando así el riesgo de electrocutarse como puede suceder en piscinas que son iluminadas mediante sistemas convencionales.. fiabilidad y duración de los componentes de intemperie. tales como los conectores. APLICACIONES DE LA FIBRA ÓPTICA EN LAS TELECOMUNICACIONES Un sistema de comunicaciones ópticas es una forma de transmitir información cuyo soporte básico es la luz. También se puede llevar a cabo el guiado del misil mediante fibras ópticas. al igual que las de radio. Además.. son una forma de 132 ..El comportamiento de los conductores ópticos frente a las radiaciones nucleares es de alta seguridad. Al margen de la información que esta pueda enviar. También en el caso de mísiles de crucero lanzados desde guerra se lleva a cabo el control de] lanzamiento mediante fibras ópticas.. debido a sus particulares características nombradas anteriormente. porque éstas no se transmiten hasta los equipos terminales. Factores muy importantes a considerar en el uso de estos sistemas en el campo militar es el de la sencillez. Las ondas de luz.. la fibra a tomado gran relevancia en lo que a iluminaciones de fuentes y piscinas se refiere. se recupera en pocos minutos tras una explosión. así se pueden disponer con gran margen de seguridad los radares de detección en cualquier punto de las operaciones. APLICACIÓN DE LA FIBRA ÓPTICA EN LA ILUMINACIÓN: Es obvio que. es en la señalización en las carreteras. lo que la fibra óptica transporta es luz. esta aplicación es bastante importante. La información viaja en forma de luz a lo largo de dicho sistema. tales como industrias petrolíferas. ante todo. y para mayor seguridad en cuanto a la no necesidad de uso de la electricidad. por otra parte. Otra aplicación en la que la fibra está tomando importancia. En cuanto a ocio. Los mísiles se controlan desde uno o más centros y las rampas están interconectadas por una red redundante de cables ópticos. ya que la seguridad de la fibra frente a los factores ambientales es extraordinaria.

en cambio. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. La conexión de Internet mediante fibra a parte de ser mucho mas rápida. En fibra óptica la atenuación es bajísima. debido a la gran cantidad de materia prima que existe en el planeta para fabricarla. En un principio fueron los militares los que idearon este sistema debido a las grandes ventajas que esto le reportaría: La fibra óptica no permite que nadie pueda acceder a la información transmitida en el proceso comunicativo sin que el usuario pueda detectarlo. Esta idea surgió hace más de un siglo. Internet a altas velocidades.600 bps. por los que las pérdidas de información sueles ser inapreciables. . redes de área local (como las redes LAN). Hoy en día . impensable en el sistema convencional. ya se sabe que la forma más eficiente de que la luz viaje desde un punto hasta otro es mediante la fibra óptica. El inmenso ancho de banda (de gigaherzios) nos da la posibilidad de establecer comunicaciones múltiples tales como videoconferencias. al igual que se usan las ondas de radio para la transmisión de información. Es por ello que pueden usarse. pero no se pudo aplicar ya que no había fuentes de luz ni medios para transportarla adecuados. Aplicaciones de la fibra óptica en redes 133 . La información que se transmite viaja a la velocidad de la luz. aunque esto todavía no está totalmente resuelto. El precio de la fibra.. no nos plantea un gran problema que sucede con el método convencional: caerse de la red continuamente. sonidos. tales como videos. derriba la mayor limitación de este medio: La lentitud del trato de la información. en el que la mayoría de usuarios se conecta a 28.000 0 33. Nos permite trabajar con gran rapidez en entornos multimedia. cada vez es más barato. lo que permite comunicaciones de todo tipo en tiempo real y con cualquier punto del planeta. A continuación vamos a analizar mas detalladamente aplicaciones de la fibra óptica en diversos ámbitos de las comunicaciones: Aplicaciones de la fibra óptica en Internet El servicio de conexión a Internet por fibra óptica. La fibra también nos resuelve en gran medida los problemas de masificación de interlocutores.radiación electromagnética. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.. La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps .

Una LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. en todas las modernas ciudades se está introduciendo el sistema de fibra para el teléfono e Internet. En las redes de semáforos. Las redes de comunicación públicas están divididas en diferentes niveles.La fibra óptica ha ganado gran importancias en el campo de las redes de área local. así como al alcance que definen. a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural). se tiene primeramente la red interurbana y red provisional. a la capacidad de transmisión. hacia el centro la red urbana y finalmente las líneas de abonado. es decir. y suelen usarse en oficinas o campus universitarios. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra. Esto no 134 . Al contrario que las comunicaciones de larga distancia. en las que la precisión ha de ser casi exacta. Debido a todo esto. también toma un papel importante la fibra óptica. pero conectan entre sí ordenadores separados por distancias mayores. Wide Area Network) o las centralitas particulares (PBX). Por ejemplo. cables con fibras monomodo ó multimodo. como en el resto de las telecomunicaciones por fibra el empleo de amplificadores de señal cada pocos kilómetros. así como de posibilidad de boicoteo de la línea (tan común en las líneas de cobre) La escucha es mucho mas nítida. situados en distintos lugares de un país o en diferentes países. la fibra está consiguiendo abaratar las tarifas telefónicas. Las WAN son similares a las LAN. y no hace falta. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. para que no se produzcan accidentes. Otra ventaja del teléfono mediante fibra óptica es la posibilidad de establecer conexión de Internet y teléfono al mismo tiempo y con tan solo una línea. conforme al funcionamiento. si está aproximándose desde el exterior hacia el interior de una gran ciudad. Otros recursos informáticos conectados son las redes de área amplia (WAN. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. Las computadoras de una red de área local están separadas por distancias de hasta unos pocos kilómetros. La fibra nos permite una comunicación libre de interferencias. Aplicaciones de la fibra óptica en telefonía En este campo es en el que más se está extendiendo la fibra óptica. Actualmente. estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado.

Telemedida: La fibra óptica permite recoger información sobre medidas de servicios como el agua. Web TV. contratación de un depósito o la cancelación y cambio de entidad. Telecompra: Tendrá acceso directo a anuncios por palabras con opción a compra. el gas o la electricidad que. su accesibilidad y principalmente su historia. Banco en Casa: Realización de cualquier tipo de transacción bancaria.. Otras aplicaciones de la fibra óptica en telecomunicaciones: La fibra óptica permite acceder a una infinidad de servicios referente a las telecomunicaciones tales como: Televisión: Recepción de una gran número de canales con distintas opciones de compra. canales premium... espectáculos. Analizándolo mencionaremos la importancia y las ventajas que existen. Radio Digital. hasta navegar por un centro comercial con la posibilidad de adquirir el objeto que más desee. una oferta amplísima compuesta por canales informativos.. Canales temáticos para todos los gustos musicales. sus costos. 135 . Paquete básico. Facilitará el acceso a información sobre restaurantes.. documentales. Fibra Óptica II En mi punto de vista creo que deberíamos de analizar y hablar sobre el tema de la fibra óptica. vídeo bajo demanda. pago por visión . deportivos. espectáculos. infantiles. como también el uso que se le da. pero con la mejor calidad de sonido. posteriormente serán enviados a las empresas correspondientes que nos pasarán la factura de acuerdo con lo consumido.sería posible en una línea de teléfono convencional debido a lo reducido de su ancho de banda para transmitir información. comercios. eventos. musicales. Será uno de los mejores ejemplos de la interactividad que permite la fibra óptica.. ya que hace más de una década que se emplea como conductor. desde movimientos entre cuentas.

etc. Luego se consiguieron fibras de 7 dB/Km. Por tanto a finales de los años 70 y a principios de los 80. que seria información codificada en forma digital como una secuencia de 1 y 0. pero se evidenció que la transmisión de las ondas de luz por la atmósfera de la tierra no es práctica debido a que el vapor de agua. el avance tecnológico en la 136 . etc. las transmisiones ópticas a distancias cortas. La fibra óptica puede decirse que fue obtenida en 1951. para mi esto es la superioridad de este nuevo medio de transmisión. 2. 0. en el año 1880. con 20 dB/Km.47 dB/Km. oxigeno y partículas en el aire absorben y atenúan las señales en las frecuencias de luz. DESARROLLO Creo que uno de los puntos mas importantes de la fibra óptica es como la luz que viaja a través del cable. En 1970.Lo importante es que el volumen de información esto es los ceros y unos que se puede transmitir en la fibra óptica es miles de veces mayor que el de una línea telefónica. computación. para el interés de un ingeniero es de suma importancia hacer un breve análisis de lo que enseguida mencionare. Mantener e instalar una conexión de fibra óptica es una de las ventajas que existen asimismo sus costos. estas perdidas restringía. una guía de fibra llamada Fibra óptica la cual transmite información lumínica. (al incrementar la distancia 3 metros la potencia de luz disminuía ½). la compañía de CORNING GLASS de Estados Unidos fabricó un prototipo de fibra óptica de baja perdida. y varias cosas que ya se pueden utilizar hoy en día. existen empresas que ya mantienen una segura conexión de fibra óptica actualmente. Se encuentra una línea de cable submarino de fibra óptica que conecta con las ciudades más importantes de América del norte y América latina junto con Europa. ya que una instalación de cobre para uso telefónico nos sale más costosa que si la hiciéramos en fibra óptica. Mientras que su accesibilidad y sus aplicaciones en México. con una atenuación de 1000 dB/Km. además de telefonía. 0. la conexión telefónica. El primer intento de utilizar la luz como soporte para una transmisión fue realizado por Alexander Graham Bell. pues así nos vamos limitando a usar cable común (cobre.5 dB/Km. Utilizó un haz de luz para llevar información. (1973). Se ha buscado entonces la forma de transmitir usando una línea de transmisión de alta confiabilidad que no reciba perturbaciones desde el exterior.2 dB/Km.) en las instalaciones como por ejemplo: la iluminación de un automóvil. (1976). (1972). (1979).En el caso de los unos están representados por pulsos de luz y los ceros por espacios entre cada pulso .En primer lugar existe una gran importancia. otra ventaja seria que son muy confiables por su resistencia a las interferencias electromagnéticas que afectan a las ondas de radio. sistemas de televisión por cable. aluminio. automatización industrial.

abrieron la puerta al desarrollo de sistemas de comunicación de fibra óptica de alta calidad. Este novedoso material vino a revolucionar los procesos de las telecomunicaciones en todos los sentidos. guiar y transmitir la luz con muy pocas pérdidas incluso cuando esté curvada. el interior llamado núcleo (se construye de elevadísima pureza con el propósito de obtener una mínima atenuación) y el exterior llamado revestimiento que cubre el contorno (se construye con requisitos menos rigurosos).3 % inferior al del núcleo n1 ). El diámetro exterior del revestimiento es de 0. ambos tienen diferente índice de refracción ( n2 del revestimiento es de 0. Portadora de información En poco más de 10 años la fibra óptica se ha convertido en una de las tecnologías más avanzadas que se utilizan como medio de transmisión de información.fabricación de cables ópticos y el desarrollo de fuentes de luz y detectores. alta capacidad y eficiencia.1 mm. constituida de material dieléctrico (material que no tiene conductividad como vidrio o plástico). aproximadamente y el diámetro del núcleo que transmite la luz es próximo a 10 ó 50 micrómetros. Este desarrollo se vio apoyado por diodos emisores de luz LEDs. Está formada por dos cilindros concéntricos. Adicionalmente incluye una cubierta externa adecuada para cada uso llamado recubrimiento. es capaz de concentrar.2 a 0. Fotodiodos y LASER (amplificación de luz por emisión estimulada de radiación). desde lograr una mayor velocidad en la transmisión disminuir 137 . ¿Qué es la fibra óptica? La Fibra Óptica es una varilla delgada y flexible de vidrio u otro material transparente con un índice de refracción alto.

computación.000 pares de cable de cobre convencional para brindar servicio a ese mismo número de usuarios. con la desventaja que este último medio ocupa un gran espacio en los ductos y requiere de grandes volúmenes de material. mientras que se requiere de 10. Comparado con el sistema convencional de cables de cobre donde la atenuación de sus señas. amplia capacidad de transmisión y un alto grado de confiabilidad debido a que son inmunes a las interferencias electromagnéticas de radio-frecuencia. (Decremento o reducción de la onda o frecuencia) es de tal magnitud que requieren de repetidores cada dos kilómetros para regenerar la transmisión. Fabricadas a alta temperatura con base en silicio. para permitir que el índice de refracción de su núcleo. la fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho de banda. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún circuito adicional de protección y no hay problemas debido a los cortos circuitos Tienen un gran ancho de banda. De esta forma es considerable el ahorro en volumen en relación con los cables de cobre. por ello se le considera el componente activo de este proceso. Con un cable de seis fibras se puede transportar la señal de más de cinco mil canales o líneas principales. sin embargo. Una vez que es 138 . que es la guía de la onda luminosa. Sin que halla necesidad de recurrir a repetidores lo que también hace más económico y de fácil mantenimiento este material. Concepto de transmisión En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa. que puede ser utilizado para incrementar la capacidad de transmisión con el fin de reducir el costo por canal. entre sus principales características se puede mencionar que son compactas. lo que también eleva los costos. sistemas de televisión por cable y transmisión de información de imágenes astronómicas de alta resolución entre otros. con el tiempo se ha planteado para un amplio rango de aplicaciones además de la telefonía. en el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente compactos: El grosor de una fibra es similar a la de un cabello humano. Originalmente. automatización industrial.casi en su totalidad los ruidos y las interferencias hasta multiplicar las formas de envío en comunicaciones y recepción por vía telefónica. Las fibras ópticas no conducen señales eléctricas por lo tanto son ideales para incorporarse en cables sin ningún componente conductivo y pueden usarse en condiciones peligrosas de alta tensión. sea uniforme y evite las desviaciones. su proceso de elaboración es controlado por medio de computadoras. ligeras. con bajas pérdidas de señal.

transmitida la señal luminosa por las minúsculas fibras. línea de fibra óptica (segundo tramo). un dispositivo que recibe los pulsos de luz. ¿seria una ventaja para nuestros medios de información? Es cierto que tiene mucha capacidad pero también es cierto que debemos “repetir” a cierta distancia la luz debido a la atenuación. en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor. todas las conversaciones telefónicas de un país. José de la Herrán 2(UNAM) Ventajas Una de sus ventajas que mencionaré creo que es la más importante.* Ing. de señal de entrada. los convierte en pulsos eléctricos. receptor. corrector óptico. la fibra óptica funciona como medio de transportación de la señal luminosa. debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. 139 . En resumen. su luminosidad. las propiedades de los materiales empleados (diseño óptico) y el intervalo de longitudes de onda de la fuente de luz utilizada (cuanto mayor sea éste. Con suficientes repetidores. amplificador y señal de salida. línea de fibra óptica (primer tramo) empalme. similar a la señal original. se puede decir que este proceso de comunicación. con equipos de transmisión capaces de manejar tal cantidad de información (entre 100 MHz/Km a 10 GHz/Km). José de la Herrán 2(UNAM). los amplifica y los convierte nuevamente en pulsos luminosos para inyectarlos en el siguiente tramo de fibra. De hecho 2 fibras ópticas serían capaces de transportar. cuya misión consiste en transformar la señal luminosa en energía electromagnética. menor será la capacidad de transmisión de información de la fibra).* Ing. con el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. corrector óptico. este sistema puede transmitir los mensajes o los datos a cualquier distancia a lo largo y ancho de nuestro planeta. El sistema básico de transmisión se compone en este orden. longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas. además pueden propagarse simultáneamente ondas ópticas de varias longitudes de onda que se traduce en un mayor rendimiento de los sistemas. que es un conductor que no transmite corriente eléctrica.La capacidad de transmisión es muy elevada. La capacidad de transmisión de información depende básicamente de tres características: el diseño geométrico de la fibra. Mientras que con el sistema de cables de cobre se requieren repetidores cada dos kilómetros. amplificador. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica. Cada cierta distancia hay que colocar un "repetidor". esto es. Textos científicos 1(2005) dice .Esto es la capacidad que tiene este conductor pero. fuente de luz. generado por el transmisor de LED'S (diodos emisores de luz) y láser. esto se demuestra a continuación. Además su pequeño tamaño.

Existe un aislamiento eléctrico entre el emisor y el receptor al ser la fibra óptica dieléctrica (no conductora de electricidad). la materia prima utilizada en la fabricación es el dióxido de silicio (Si0 2 ) que es uno de los recursos más abundantes en la superficie terrestre. 140 .  Inmunidad a transmisiones cruzadas entre cables. ya que ellas pueden transmitir a velocidades mucho más altas de lo que los emisores y transmisores actuales lo permiten. gases y variaciones de temperatura. son estos dos elementos los que limitan la velocidad de transmisión. por lo tanto. La comunicación se realiza a través de un rayo de luz.  Resistencia a extremos ambientales. Las fibras de vidrio y los plásticos no son conductores de electricidad.  Mayor capacidad debido al ancho de banda mayor disponible en frecuencias ópticas. causadas por inducción magnética.Capacidad de transmisión: La idea de que la velocidad de transmisión depende principalmente del medio utilizado. lo que implica una menor necesidad de colocar repetidores cada cierta distancia abaratando así los costos del sistema. se pueden usar cerca de líquidos y gases volátiles. Gran flexibilidad y recursos disponibles Los cables de fibra óptica se pueden construir totalmente con materiales dieléctricos. de su instalación y mantenimiento.*la fibra óptica 3(2010). Existe una menor pérdida de potencia. se conservo hasta el advenimiento de las fibras ópticas. Son menos afectadas por líquidos corrosivos. la señal que viaja en fibra óptica no puede ser detectada.  La seguridad en cuanto a instalación y mantenimiento.  Inmunidad a interferencia estática debida a las fuentes de ruido. por lo cual no puede sufrir interferencia de tipo electromagnético. De la misma forma.

141 . **time-out** cuando él introducir servicio. decir Fujitsu. los costes de mantenimiento de una planta de fibra óptica son mucho más bajos que los de una planta de cobre. por lo tanto constituyen el medio más seguro para transmitir información de muy alta calidad sin degradación.000 simultáneo teléfono circuito. Además. TOKIO. Sin embargo si el requerimiento de capacidad de información es bajo la fibra óptica puede ser de mayor costo. el Indosat. y el Telstra para el consorcio. El contrato de Fujitsu fue concedido por el Singapur telecom. Indonesia.Aislamiento eléctrico entre terminales Al no existir componentes metálicos (conductores de electricidad) no se producen inducciones de corriente en el cable. Ausencia de radiación emitida Las fibras ópticas transmiten luz y no emiten radiaciones electromagnéticas que puedan interferir con equipos electrónicos. el coste de construir una planta de fibra óptica es comparable con el coste de construir una planta de cobre. Costos y mantenimiento En cuanto a sus costos y mantenimiento hare mención a ello dando como prueba una pequeña investigación. [TOKYO:6702] ha ganado el contrato para proveer la sección de AsiaPacific del cable óptico de la fibra submarina más larga del mundo. Las llamadas del contrato US$84 millón para que la compañía instale un estiramiento de 4. el 1997 de ENERO 21 (NOTA) -Fujitsu Ltd. El cable se planea para ser terminado antes del de enero 31 de 1999. Era parte de una serie de contratos firmados en Singapur recientemente para el edificio del sistema del cable por un consorcio de compañías internacionales de las telecomunicaciones. por tanto pueden ser instalados en lugares donde existen peligros de cortes eléctricos. *textos científicos 1(2005). tampoco se ve afectada por radiaciones emitidas por otros medios.500 kilómetros (kilómetro) del cable de SEA-ME-WE 3 entre Singapur. Actualmente. y Australia. JAPÓN. contraer sistema tener mínimo capacidad 20 Gb/s que poder acomodar aproximado 240.

Sin embargo si se requiere una capacidad de información baja. que en la mayoría de los casos es de revestimiento 125 micras de diámetro. La transmisión es prácticamente inalterable debido a los cambios de temperatura. La cantidad de información transmitida es enorme. una comunicación telefónica que se realiza a través de cables tipo TAB. A través de la fibra óptica se pueden transmitir señales a zonas eléctricamente ruidosas con un bajo índice de error y sin interferencias. los cuales tienen un grosor de 8 cm.720 llamadas simultáneas. puede variar debido a un gran número de factores tales como la humedad. por lo que se hace necesario simplificar la ecualización y compensación de las variaciones en dichas propiedades. etc. mientras el núcleo es aun más delgado. *RTFO grupo 18 4(2008). Transmite 2400 llagadas simultáneas. Atenuación Es el factor que indica con que frecuencia deben colocarse los repetidores de la señal que se conduce o propaga por el medio. 142 . las curvaturas que sufre el cable. si se compara peso contra cantidad de datos transmitidos se puede observar por ejemplo. en comparación las fibras ópticas alcanzan las 30. Dimensiones Y Peso Una de las características más notoria de la fibra óptica es su tamaño. ya que el método de fabricación determina la atenuación mínima que existe en ella. la fibra óptica puede implicar un mayor coste. Otro de estos factores es el tipo de fibra utilizada.

Al igual que en la atenuación. sin la necesidad de los repetidores.*textos científicos 1(2005). siendo innecesarios y/o simplificadas la ecualización y compensación de las variaciones en tales propiedades. Aplicaciones de laboratorio han permitido alcanzar distancias de 111km. las fibras ópticas permiten que las distancias entre repetidores sean más grandes. Se mantiene estable entre -40 y 200 ºC . Las características de transmisión son prácticamente inalterables debido a los cambios de temperatura. Por tanto dependiendo de los requerimientos de comunicación la fibra óptica puede constituir el mejor sistema. Una línea de fibra óptica puede transmitir a esa velocidad hasta una distancia de 2. con fibras y equipos mas sofisticado las distancias pueden ir hasta los 2. Un repetidor de fibra es aquel que toma una señal de luz. así como acortar distancias.5 Km. Por ejemplo.2 mts. 143 . sin embargo si se trata de obtener un mayor ancho de banda y de fidelidad. la convierte a señal eléctrica. Aplicaciones Definitivamente el cable de cobre es más barato que la fibra óptica. Transmitiendo a un a velocidad de 19200 Bps. realmente la fibra óptica justifica sus precios por los beneficios que ofrece frente a los del cable de cobre. Sin repetidor. Comparadas con el cobre. un dispositivo que le vuelva a dar potencia para seguir avanzando. en un enlace para dispositivos RS232 (puerto serial) la distancia máxima entre dos nodos es de 15. la distancia máxima que puede alcanzarse esta muy relacionada con el tipo de fibra. Las señales se pueden transmitir a través de zonas eléctricamente ruidosas con muy bajo índice de error y sin interferencias eléctricas.5km. la regenera y la coloca en un dispositivo de emisión de luz para que se siga propagando. En las versiones sencillas se logran distancias típicas de dos Km entre el transmisor y en receptor. esto significa que la distancia lograda con la fibra es 164 veces mayor que la de su equivalente el cobre. y contar con un medio de transmisión amplio y más seguro.Distancia Umbral Conforme la señal avanza por el medio va perdiendo fuerza hasta llegar al punto en que si desea transmitirse a mayor distancia debe colocarse un repetidor. a 5 Gbps. .

Campos tales como las telecomunicaciones. pinzas para toma de muestras. mecánica y vigilancia se benefician de las cualidades de esta herramienta óptica. con fines decorativos o búsqueda de precisión) tiene cabida este campo. vaginoscopios gastroscopios y laparoscopios. evacuación de líquidos. Diversos aparatos como laringoscopios. baja atenuación. (debido a su gran ancho de banda. medicina. incluyen ya esta tecnología.* fibra óptica 5(2002).Las aplicaciones de la fibra óptica hoy en día son múltiples. todas las aplicaciones que se basan en la luminosidad (bien sea por falta de esta. arqueología. están siendo sustituidos los sistemas tradicionales por los modernos fibroscopios. etc. prácticas militares. Si a todo esto sumamos la gran capacidad de transmisión de información de este medio. Los fibroscopios realizados con ayuda de las técnicas opticoelectrónicas cuentan con un extremo fijo o adaptable para la inserción de agujas. Partiendo de que la fibra óptica transmite luz. esta en un continuo proceso de expansión. Medicina En este campo son evidentes las ventajas que puede aportar el uso de la fibra óptica como ayuda a las técnicas endoscópicas clásicas y. Arqueología 144 . electrodos de cauterización. por difícil acceso. sin conocer exactamente límites sobre ello.) dichas aplicaciones se multiplican. a que esta información viaja a la velocidad de la luz. tubos para la introducción de anestésicos. rectoscopios. etc. la cual nos permite con gran precisión la exploración de cavidades internas del cuerpo humano. Además. broncoscopios. de hecho.

inmunidad interferencia electromagnética y pulsos electromagnéticos. Como en medicina también se usa un endoscopio. Sensores Los sistemas eléctricos convencionales son a menudo inadecuados en entornos de altas tensiones y zonas con campos interferentes. la más importante son flexibilidad geométrica. Gracias a la exactitud que nos proporciona este medio. lo que proporciona importantes ahorros logísticos de material de campaña y personal. • Aplicaciones Militares Los beneficios de esta tecnología para los militares radican fundamentalmente en la seguridad de este medio de transmisión frente a las comunicaciones por radio y cables convencionales. 145 . De este modo se reduce notablemente la necesidad de la codificación de mensajes en virtud de la seguridad antidetección inherente a las fibras.En este campo. tales como: • • • • • • Sensores acústicos Sensores eléctricos y magnéticos Sensores de rotación Sensores de aceleración Sensores de presión Sensores de temperatura. como por ejemplo habilidad para detectar señales de niveles muy bajos y con pequeños cambios. y que justifica su aplicación militar. locales de industrias con emanaciones. la fibra óptica se usa habitualmente con el fin de poseer un acceso visual a zonas que son inaccesibles mediante otros sistemas. Estos dispositivos exhiben numerosas ventajas. así como su reducido tamaño. Hay sensores de muchos tipos que incluyen esta tecnología. Otra razón de tanta importancia como la anterior. los sensores son un punto bastante importante en el que se aplica la tecnología de la fibra óptica. es el poco peso de los cables de fibras. La fibra óptica no nos plantea este problema. gran ancho de banda y una gran sensibilidad .

etc. Factores muy importantes a considerar en el uso de estos sistemas en el campo militar es el de la sencillez. Al margen de la información que esta pueda enviar. También se puede llevar a cabo el guiado del misil mediante fibras ópticas. aumentando considerablemente la visión de estas a los conductores nocturnos. tales como los conectores. También en el caso de mísiles de crucero lanzados desde guerra se lleva a cabo el control de] lanzamiento mediante fibras ópticas. industrias de altos componentes inflamables y muchas otras. la capacidad de transmisión. explotaciones mineras. así se pueden disponer con gran margen de seguridad los radares de detección en cualquier punto de las operaciones. ante todo. Los mísiles se controlan desde uno o más centros y las rampas están interconectadas por una red redundante de cables ópticos. es en la señalización en las carreteras. ya que la seguridad de la fibra frente a los factores ambientales es extraordinaria. tales como industrias petrolíferas. debido a sus particulares características nombradas anteriormente. en el caso de las actuales fibras monomodo ha mejorado notablemente su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento de las fibras multimodal anteriores. por otra parte. Además. fiabilidad y duración de los componentes de intemperie. porque éstas no se transmiten hasta los equipos terminales. 146 . nos permite con suma facilidad iluminar zonas especiales sometidas a toxicidades. riesgos de incendio. ya que. lo que la fibra óptica transporta es luz. esta aplicación es bastante importante. Iluminación Es obvio que. Otra aplicación en la que la fibra está tomando importancia. se recupera en pocos minutos tras una explosión. Una aplicación táctica muy interesante es el uso de la fibra para la colocación de radares distantes del centro de operaciones.El comportamiento de los conductores ópticos frente a las radiaciones nucleares es de alta seguridad.

Hoy en día . La información viaja en forma de luz a lo largo de dicho sistema. ya que puede filtrar los componentes ultravioletas de la luz. y para mayor seguridad en cuanto a la no necesidad de uso de la electricidad.En cuanto a ocio. Internet 147 . la fibra a tomado gran relevancia en lo que a iluminaciones de fuentes y piscinas se refiere. Telecomunicaciones Un sistema de comunicaciones ópticas es una forma de transmitir información cuyo soporte básico es la luz. consiguiendo así evitar el deterioro de las pinturas. Siguiendo con las aplicaciones de la fibra para iluminación cabe destacar el factible uso que se le da en museos. se sabe que la forma más eficiente de que la luz viaje desde un punto hasta otro es mediante la fibra óptica. evitando así el riesgo de electrocutarse como puede suceder en piscinas que son iluminadas mediante sistemas convencionales.

y suelen usarse en oficinas o campus universitarios. Una LAN (redes locales de información) permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. La fibra nos permite una comunicación libre de interferencias. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. La conexión de Internet mediante fibra a parte de ser mucho mas rápida. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.El servicio de conexión a Internet por fibra óptica. situados en distintos lugares de un país o en diferentes países. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra. así como de posibilidad de boicoteo de la línea (tan común en las líneas de cobre) . sonidos. aunque esto todavía no está totalmente resuelto. Wide Area Network) o las centralitas particulares (PBX). Nos permite trabajar con gran rapidez en entornos multimedia. Actualmente. estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. Otros recursos informáticos conectados son las redes de área amplia (WAN. derriba la mayor limitación de este medio: La lentitud del trato de la información. no nos plantea un gran problema que sucede con el método convencional: caerse de la red continuamente. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. Redes La fibra óptica ha ganado gran importancias en el campo de las redes de área local. Telefonía En este campo es en el que más se está extendiendo la fibra óptica. Las computadoras de una red de área local están separadas por distancias de hasta unos pocos kilómetros. tales como videos. y no hace falta. Por ello las líneas telefónicas no son la única vía hacia el ciberespacio. etc. como en el resto de las telecomunicaciones por fibra el empleo de amplificadores de señal cada pocos kilómetros. en todas las modernas ciudades se está introduciendo el sistema de fibra para el teléfono e Internet. 148 . Al contrario que las comunicaciones de larga distancia.El sonido es mucho mas nítido. La fibra también nos resuelve en gran medida los problemas de masificación de interlocutores. pero conectan entre sí ordenadores separados por distancias mayores. Las WAN son similares a las LAN.

espectáculos. pero con la mejor calidad de sonido. Radio Digital: Canales temáticos para todos los gustos musicales. una oferta amplísima compuesta por canales informativos.Otra ventaja del teléfono mediante fibra óptica es la posibilidad de establecer conexión de Internet y teléfono al mismo tiempo y con tan solo una línea. deportivos.. un ejemplo típico es el sector de los transportes ferroviarios y metropolitanos. hasta navegar por un centro comercial con la posibilidad de adquirir el objeto que más desee. infantiles. musicales. pago por visión. posteriormente serán enviados a las empresas correspondientes que nos pasarán la factura de acuerdo con lo consumido.. Telemedida: La fibra óptica permite recoger información sobre medidas de servicios como el agua.. Banco en Casa: Realización de cualquier tipo de transacción bancaria..transmisión de video. canales premium. documentales. el gas o la electricidad que. 149 . Esto no sería posible en una línea de teléfono convencional debido a lo reducido de su ancho de banda para transmitir información. Instalaciones de mando y señalización. espectáculos. desde movimientos entre cuentas. Otras Aplicaciones La fibra óptica permite acceder a una infinidad de servicios referente a las telecomunicaciones tales como: • • • • • • Televisión: Recepción de una gran número de canales con distintas opciones de compra.. vídeo bajo demanda. Facilitará el acceso a información sobre restaurantes.. Las instalaciones de telecomunicación de interés en estos sectores pueden subdividirse en: • • • • Redes de telecomunicación (telefonía y transmisión de datos). Web TV: Será uno de los mejores ejemplos de la interactividad que permite la fibra óptica. Transportes Las especiales características de la fibra óptica han suscitado su interés en aplicaciones a otros sectores de actividad con exigencias especiales en materia de comunicaciones. comercios. Instalaciones de control y adquisición de datos. Sistemas punto a punto . Paquete básico. contratación de un depósito o la cancelación y cambio de entidad. Telecompra: Tendrá acceso directo a anuncios por palabras con opción a compra. eventos.

150 . ha encontrado una difusión tan amplia que en la actualidad cada vehículo tiene en promedio dos metros de haz de fibras ópticas. Por otra parte el cable de cobre ¿donde quedaría? y las fabricas que lo hacen ¿también dejaría de existir? Creo que no porque todas las plantas de energía eléctrica necesitan de mucho cable también conexiones a aparatos domésticos. pero esto seria para aquellas empresas cuyos ingresos económicos son muchos. realizarlo y llevarlo a su conectividad les sale costoso. aparato que se utiliza se fabrique con fibra óptica. una mejor opción seria la fibra óptica. Conclusiones: La fibra óptica para mi es un importante medio de conducción de información. ya que su velocidad y capacidad de transmitirla es muy eficiente. aluminio. En el caso de fabricas para la construcción de autos se ahorrarían mucho dinero y bastantes cables de cobre . donde hace años que existen usos especiales. debido a su ligereza y a su resistencia a condiciones climáticas adversas. lo que hace que una cirugía sea más segura y practica. especialmente en el sector del automóvil. etc.Pueden encontrarse otras aplicaciones interesantes de la fibra óptica a bordo de vehículos.pues para mantenerlo iluminado solo bastarían con instalar fibra óptica. va de la comodidad de cada empresa. mientras que al instalar cable de cobre. Esta aplicación en particular. etc. también han adquirido una severa importancia en los transportes aéreos. industriales. por eso tanto el cable común de cobre. Necesitan de electricidad de mucha corriente eléctrica. En otro campo como en la medicina me parece que es muy importante que cada instrumento. en cuanto a sus aplicaciones son muchas las que se le da. Es demasiado importante como el conductor de fibra óptica. Y así es de importante hoy en día la fibra óptica sin ella creo que muchas de las nuevas empresas de telefonía y de televisión por cable no existirían. Lo mencionaba anteriormente que para darle uso como cable telefónico. Además.

sus ventajas y desventajas. el impacto que a tenido en la tecnología además se podrá entender 151 . su fabricación.Fibra Óptica III En este pequeña recopilación de información sobre el tema a desarrollar se hablara sobre la historia y su evolución de lo que es hoy en día el mejor material que usa el ser humano para comunicarse lo más rápido posible la fibra óptica. Este documento contiene estudiaremos lo práctico que es este tipo de material.

tamaño y peso reducido. En 1792. Además tiene muchas otras ventajas. vidrio o materiales plásticos. de modo rudimentario. ¿Pero que es la fibra óptica? La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos. pero investiguemos mas afondo lo que es y nos puede ofrecer este material. sino en una muy concreta y predefinida se ha conseguido mediante la fibra óptica. que mediante el uso de un código y torres y espejos distribuidos a lo largo de los 200 km que separan Lille y París. por el que se envían pulsos de luz que representan los datos a transmitir.su funcionamiento y de sus variados usos en que se emplea este tipo de material. La gran novedad aportada en nuestra época es el haber conseguido “domar” la luz. Esto es parte de lo que es la fibra óptica. los antiguos griegos usaban espejos para transmitir información. como bajas pérdidas de señal.El uso de la luz guiada. 152 . Todos estos apartados se describirán a continuación. inmunidad frente a emisiones electromagnéticas y de radiofrecuencia y seguridad. ANTECEDENTES El uso de la luz para la codificación de señales no es nuevo. un hilo muy fino de material transparente. conseguía transmitir un mensaje en tan sólo 16 minutos. usando luz solar. Claude Chappe diseñó un sistema de telegrafía óptica. de modo que no expanda en todas direcciones.

En este invento se usaron unas nuevas fibras forradas con un material de bajo índice de refracción. Charles K. 153 . afirmaron que se podía disponer de fibras de una transparencia mayor y propusieron el uso de fibras de vidrio y luz. se empezaron a utilizar filamentos delgados como el pelo que transportaban luz a distancias cortas. Kao. el único problema era que esta luz perdía hasta el 99% de su intensidad al atravesar distancias de hasta de 9 metros de fibra. En 1966. California. en la trasmisión de mensajes telefónicos. en Inglaterra. de los laboratorios de Standard Telecommunications. En 1820. General Telephone and Electronics envió la primera transmisión telefónica a través de fibra óptica. el físico Narinder Singh Kapany. eran de 20 dB/km. estimó que las máximas pérdidas que debería tener la fibra óptica. realizó experimentos que condujeron a la invención de la fibra óptica. en 6 Mbit/s.Uno de los primeros usos de la fibra óptica fue emplear un haz de fibras para la transmisión de imágenes. Kao y G. se conoce desde hace mucho tiempo. en los que demostraron el potencial del cristal como medio eficaz de transmisión a larga distancia.los investigadores Charles K. El gran problema. A partir de este principio se llevaron a cabo una serie de estudios. en Long Beach. dirigiéndolo en una trayectoria recta. en esta misma época. sin embargo. en su tesis doctoral de 1956. Hondros y Peter Debye en 1910. En 1952. para que resultara práctica en enlaces de comunicaciones. y en 1870 presentó sus estudios ante los miembros de la Real Sociedad. apoyándose en los estudios de John Tyndall. Hockham. A. en lugar de electricidad y conductores metálicos. que se usó en el endoscopio médico. El físico irlandés John Tyndall descubrió que la luz podía viajar dentro de un material (agua). Solamente en 1950 las fibras ópticas comenzaron a interesar a los investigadores. es que las técnicas y los materiales usados no permitían la trasmisión de luz con buen rendimiento. Augustin-Jean Fresnel ya conocía las ecuaciones por las que rige la captura de la luz dentro de una placa de cristal lisa. Las pérdidas eran tan grandes y no había dispositivos de acoplamiento óptico. curvándose por reflexión interna. con muchas aplicaciones prácticas que estaban siendo desarrolladas. La posibilidad de controlar un rayo de luz. El 22 de abril de 1977.abriéndonos las puertas al descubrimiento de un nuevo mundo: el mundo de la información sin límite de ancho de banda. Su ampliación a lo que entonces se conocía como cables de vidrio fue obra de D.

Cuatro años después. A ambos se les concedió la medalla Benjamin Franklin en 1988. Para la creación de la preforma existen cuatro procesos que son principalmente utilizados.000 canales de voz para conversaciones telefónicas simultáneas. de menos de 25 centímetros de diámetro. la longitud total de los cables de fibra únicamente en los Estados Unidos alcanzaba 400.El amplificador que marcó un antes y un después en el uso de la fibra óptica en conexiones interurbanas.000 kilómetros. FABRICACION DE LA FIBRA OPTICA Una vez obtenida mediante procesos químicos la materia de la fibra óptica. Tres años después. debido a sus mínimas pérdidas de señal y a sus óptimas propiedades de ancho de banda. Pronto. la fabricación de la preforma. fue el amplificador óptico inventado por David Payne. Además. se ha empleado fibra óptica en multitud de enlaces transoceánicos o entre ciudades. El gran avance se produjo cuando se dieron cuenta de que el cristal de sílice puro. AT&T presentó a la Comisión Federal de Comunicaciones de los Estados Unidos un proyecto de un sistema de 978 kilómetros que conectaría las principales ciudades del corredor que iba de Boston a Washington. el estirado de esta y por último las pruebas y mediciones. cuando el sistema comenzó a funcionar. y paulatinamente se va extendiendo su uso desde las redes troncales de las operadoras hacia los usuarios finales. En 1980. otro cable transatlántico duplicó la capacidad del primero. reduciendo el coste de ellas. se pasa a su fabricación. la fibras por su peso y tamaño reducido. Proceso continuo en el tiempo que básicamente se puede describir a través de tres etapas. las mejores fibras eran tan transparente que una señal podía atravesar 240 kilómetros de fibra antes de debilitarse hasta ser indetectable. y por Emmanuel Desurvire en los Laboratorios Bell. sin ninguna impureza de metal que absorbiese luz. Hoy en día. solamente se podía fabricar directamente a partir de componentes de vapor. de la Universidad de Southampton. El primer enlace transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988. la fibra óptica puede ser usada a distancias más largas que el cable de cobre. Para entonces. Desde entonces. Los cables que cruzan el Pacífico también han entrado en funcionamiento. Pero las fibras ópticas con este grado de transparencia no se podían fabricar usando métodos tradicionales. proporcionaba 80. Algunos métodos para la fabricación de la preforma: 154 . su cable. evitando de esta forma la contaminación que inevitablemnte resultaba del uso convencional de los crisoles de fundición. cables similares atravesaron los océanos del mundo. También en 1980. hace que sea muy útil en entornos donde el cable de cobre sería impracticable.

ya que de la proporción de estos aditivos dependerá el perfil final del índice de refracción del núcleo. depositándose ordenadamente los materiales.800 °C.La materia prima que utiliza es la misma que el método M. Quedando convertida la preforma porosa hueca en su interior en el cilindro macizo y transparente.700 °C y 1. Por esta razón debe cuidarse que en la zona de deposición axial o núcleo. Utiliza un tubo de cuarzo puro de donde se parte y es depositado en su interior la mezcla de dióxido de silicio y aditivos de dopado en forma de capas concéntricas. El siguiente paso consiste en el colapsado.D) permite obtener preformas con mayor diámetro y mayor longitud a la vez que precisa un menor aporte energético. A continuación en el proceso industrial se instala el tubo en un torno giratorio.D Modifield Chemical Vapor Deposition Fue desarrollado originalmente por Corning Glass y modificado por los Laboratorios Bell Telephone para su uso industrial. solo que ahora a una temperatura comprendida entre 1. La operación que resta es el colapso. Entre sus ventajas. lo que se logran a través de la introducción de los parámetros de diseño en el software que sirve de apoyo en el proceso de fabricación.T). Precisamente es esta temperatura la que garantiza el ablandamiento del cuarzo. se inicia el proceso de creación de esta. mientras el torno gira. su diferencia con este radica. se logra igualmente con el continuo desplazamiento del quemador. se deposite más dióxido de germanio que en la periferia.C. lográndose así el reblandamiento del cuarzo.600 °C mediante un quemador de hidrógeno y oxígeno. Las dimensiones de la preforma suelen ser de un metro de longitud útil y de un centímetro de diámetro exterior. mientras que en este además del núcleo de la FO se deposita el revestimiento. mediante el cual se suele describir la preforma. comparado con el método anterior (M. • V.C.700 °C.V.Como inconveniente se destaca como uno el de mayor 155 .• M.C. muy utilizado en Japón por compañías dedicadas a la fabricación de fibras ópticas.D. Al girar el torno el quemador comienza a desplazarse a lo largo del tubo. convirtiéndose así el tubo en el cilindro macizo que constituye la preforma. Por un extremo del tubo se introducen los aditivos de dopado.A.Conforme su tasa de crecimiento se va desprendiendo del cilindro auxiliar de vidrio. que en este último solamente se depositaba el núcleo. donde se somete la preforma porosa a una temperatura comprendida entre los 1. parte fundamental del proceso.V.T.500 °C y 1.D Vapor Axial Deposition Su funcionamiento se basa en la técnica desarrollada por la Nippon Telephone and Telegraph (N. El tubo es calentado hasta alcanzar una temperatura comprendida entre 1. quedando de esta forma sintezado el núcleo de la fibra óptica. A partir de un cilindro de vidrio auxiliar que sirve de soporte para la preforma.400 °C y 1.La deposición de las sucesivas capas se obtienen de las sucesivas pasadas del quemador.V. a partir del extremo del cilindro quedando así conformada la llamada "preforma porosa" .

Este diámetro se ha de mantener constante mientras se aplica una tensión sobre la preforma.En la llama del quemador son introducidos los cloruros vaporosos y esta caldea la varilla. Entre las Ventajas.3g / min. logrando así el reblandamiento del cuarzo y quedando fijado el diámetro exterior de la FO. También es posible la fabricación de fibras de muy baja atenuación y de gran calidad mediante la optimización en el proceso de secado. que generalmente es un polimerizado viscoso. el cual posibilita las elevadas velocidades de estirado.D. En este proceso se ha de cuidar que en la atmósfera interior del horno esté aislada de partículas provenientes del exterior para evitar que la superficie reblandecida de la FO pueda ser contaminada. es de citar que las tasas de deposición que se alcanzan son del orden de 4. porque los perfiles así obtenidos son lisos y sin estructura anular reconocible.Parte de una varilla de substrato cerámica y un quemador.C.A continuación se realiza el proceso denominado síntesis de la preforma. • O. ESTIRADO DE LA PREFORMA Sea cualquiera que se utilice de las técnicas que permiten la construcción de la preforma es de común a todas el proceso de estirado de esta.A. o se puedan crear micro fisuras. habiendo sido eliminadas las pérdidas iniciales en el paso de estirado de la preforma. También es aquí donde se aplica a la fibra un material sintético.D Plasma Chemical Vapor Deposition Es desarrollado por Philips. creando en estos un estado de plasma. en cuyo interior se somete la preforma a una temperatura de 2. conformándose así una capa uniforme 156 . comprendidas entre 1m / sg y 3m / sg. se caracteriza por la obtención de perfiles lisos sin estructura anular reconocible. lo que representa una tasa de fabricación de FO de 5km / h.000 °C.V. seguido del proceso de deposición interior.cognotación. Consiste básicamente en la existencia de un horno tubular abierto. que consiste en el secado de la misma mediante cloro gaseoso y el correspondiente colapsado de forma análoga a los realizados con el método V. • P. son los factores que lo permiten.D Outside Vapor Deposition Desarrollado por Corning Glass Work. la sofisticación que requiere en equipo necesarios para su realización. para lograr esto precisamente la constancia y uniformidad en la tensión de tracción y l ausencia de corrientes de convección en el interior del horno. quedando así sintetizados el núcleo y revestimiento de la preforma. con la consecuente e inevitable rotura de la fibra. Su principio se basa en la oxidación de los cloruros de silicio y germanio.V.

se habla entonces de reflexión interna total. En el interior de una fibra óptica. De este modo. cuanto mayor sea la diferencia de índices y mayor el ángulo de incidencia. FUNCIONAMIENTO Y CARACTERISTICAS Características: La fibra óptica es una guía de ondas dieléctrica que opera a frecuencias ópticas. Cada filamento consta de un núcleo central de plástico o cristal (óxido de silicio y germanio) con un alto índice de refracción. la cubierta resistente y el funcionamiento ambiental extendido de la fibra óptica contribuyen a una mayor confiabilidad durante el tiempo de vida de la fibra. de tal forma que prácticamente avanza por su centro. rodeado de una capa de un material similar con un índice de refracción ligeramente menor. algunas de sus características han ido cambiando para mejorarla.sobre la fibra totalmente libre de burbujas e impurezas. se pueden guiar las señales luminosas sin pérdidas por largas distancias. la luz se va reflejando contra las paredes en ángulos muy abiertos. donde el cable debe enfrentar dobleces agudos y espacios estrechos. Cuando la luz llega a una superficie que limita con un índice de refracción menor. Mayor protección en lugares húmedos: Se combate la intrusión de la humedad en el interior de la fibra con múltiples capas de protección alrededor de ésta. Esto se realiza habitualmente mediante procesos térmicos o a través de procesos de reacciones químicas mediante el empleo de radiaciones ultravioletas. lo que proporciona a la fibra. Ventajas: 157 . A lo largo de toda la creación y desarrollo de la fibra óptica. Uso dual (interior y exterior): La resistencia al agua y emisiones ultravioleta. Se ha llegado a conseguir un cable con 72 fibras de construcción súper densa cuyo diámetro es un 50% menor al de los cables convencionales. Empaquetado de alta densidad: Con el máximo número de fibras en el menor diámetro posible se consigue una más rápida y más fácil instalación. una mayor vida útil y confiabilidad en lugares húmedos. se refleja en gran parte. Las características más destacables de la fibra óptica en la actualidad son: • • • • Cobertura más resistente: La cubierta contiene un 25% más material que las cubiertas convencionales. Posteriormente se pasa al endurecimiento de la protección antes descrita quedando así la capa definitiva de polímero elástico.

los bucles compartidos.exclusivo punto a punto. Congestión de Libre . Soluciones de Liderazgo . fiable la tecnología Fibre Channel. Topologías múltiples .Desde un punto único de enlaces punto a Gigabit integrada a las empresas con cientos de servidores. video o datos en bruto pueden tomar ventaja de alto rendimiento. SCSI.Fibre Channel ofrece soluciones rentables de almacenamiento y redes. Es ligera. gracias a técnicas de multiplexación por división de frecuencias (X-WDM). basado en el control de flujo proporciona datos tan rápido como el búfer de destino es capaz de recibirlo. Lo más importante es el protocolo de canal de fibra. Es segura. una forma más fiable de las comunicaciones. Gigabit de ancho de banda Ahora . con un rendimiento escalable.Fibre Channel de entrega de datos. de canal de fibra proporciona un rendimiento inigualable.Fibre Channel de crédito. El peso de un carrete no es ni la décima parte de uno de cable coaxial. Alta eficiencia .Fibre Channel. Múltiples protocolos . Es segura. Libre de Corrosión. que permiten enviar hasta 100 haces de luz (cada uno con una longitud de onda diferente) a una velocidad de 10 Gb/s cada uno por una misma fibra. Escalable . una norma ANSI de gran alcance. Su ancho de banda es muy grande. no es posible acceder a los datos trasmitidos por métodos no destructivos. y escala topologías de conmutación cumplir los requisitos de aplicación. permitiendo a los usuarios de preservar existe 2-Gigabit y 1-Gigabit Fibra Canal de las inversiones. ya que se puede instalar en lugares donde puedan haber sustancias peligrosas o inflamables. Son pocos los agentes que atacan al cristal de silicio. Confiable . De cuatro canales de fibra Gigabit es altamente rentable y garantiza la compatibilidad con versiones anteriores. económica y prácticamente se reúne el desafío con las siguientes ventajas: • • • • • • • • • Precio de rendimiento Liderazgo .Real comportamiento de los precios está directamente relacionada con la eficiencia de la tecnología. TCP / IP. ya que no transmite electricidad.soluciones Gigabit están en su lugar hoy! En la 4-gig/sec horizonte se perfila como la tecnología SAN dominante para la próxima generación de discos y sistemas de almacenamiento en cinta. mantener una empresa con la entrega de información segura. Es inmune totalmente a las interferencias electromagnéticas. está específicamente diseñado para una operación altamente eficiente utilizando el hardware. Al permanecer el haz de luz confinado en el núcleo.Fibre Channel. • • • • • • 158 . se llegan a obtener velocidades de transmisión totales de 1 Tb/s.Fibre Channel proporciona conectividad versátil. Fibre Channel ha aéreos de transmisión muy poco.

esto limita su aplicación donde el terminal de recepción debe ser energizado desde una línea eléctrica. sino que se refleje y se siga propagando. No puede transmitir electricidad para alimentar repetidores intermedios. La fibra óptica convencional no puede transmitir potencias elevadas. calidad de la transmisión y pruebas. La necesidad de efectuar.• Baja Atenuación. Funcionamiento: Los principios básicos de su funcionamiento se justifican aplicando las leyes de la óptica geométrica.15 dB/Km. siendo las más relevantes las siguientes: • • • • • • • La alta fragilidad de las fibras. Esto se consigue si el índice de refracción del núcleo es mayor al índice de refracción del revestimiento. principalmente. especialmente en el campo. Su funcionamiento se basa en transmitir por el núcleo de la fibra un haz de luz. Desventajas: A pesar de las ventajas antes enumeradas. La fibra óptica alcanza atenuaciones del orden de 0. 159 . Incipiente normativa internacional sobre algunos aspectos referentes a los parámetros de los componentes. Las moléculas de hidrógeno pueden difundirse en las fibras de silicio y producir cambios en la atenuación. la ley de la refracción (principio de reflexión interna total) y la ley de Snell. el costo de la fibra sólo se justifica cuando su gran capacidad de ancho de banda y baja atenuación son requeridos. en muchos casos. la fibra óptica presenta una serie de desventajas frente a otros medios de transmisión. tal que este no atraviese el revestimiento. La fibra óptica no transmite energía eléctrica. Así mismo. procesos de conversión eléctrica-óptica. El agua corroe la superficie del vidrio y resulta ser el mecanismo más importante para el envejecimiento de la fibra óptica. lo que dificulta las reparaciones en caso de ruptura del cable. y también si el ángulo de incidencia es superior al ángulo limite. Necesidad de usar transmisores y receptores más caros. Para bajo ancho de banda puede ser una solución mucho más costosa que el conductor de cobre. Los empalmes entre fibras son difíciles de realizar.[1] No existen memorias ópticas. La energía debe proveerse por conductores separados.

soporta hasta Gigabit Ethernet (1 Gbit/s). Esto supone que no llegan todos a la vez. Multimodo: Una fibra multimodo es aquella en la que los haces de luz pueden circular por más de un modo o camino. Su distancia máxima es de 2 km y usan diodos láser de baja intensidad. pero del mismo orden de magnitud. Una fibra multimodo puede tener más de mil modos de propagación de luz. usan láser como emisores.3 a 10 micrones) que sólo permite un modo de propagación. usan LED como emisores OM2: Fibra 50/125 µm. menores a 1 km. el índice de refracción no es constante. soporta hasta Gigabit Ethernet (1 Gbit/s). el núcleo tiene un índice de refracción constante en toda la sección cilíndrica. OM2 u OM3. que el revestimiento. según el sistema ISO 11801 para clasificación de fibras multimodo según su ancho de banda las fibras pueden ser OM1. El núcleo de una fibra multimodo tiene un índice de refracción superior. tiene menor dispersión modal y el núcleo se constituye de distintos materiales.TIPOS DE FIBRA OPTICA Las diferentes trayectorias que puede seguir un haz de luz en el interior de una fibra se denominan modos de propagación. Se logra reduciendo el diámetro del núcleo de la fibra hasta un tamaño (8. Además. Y según el modo de propagación tendremos dos tipos de fibra óptica: multimodo y monomodo. es simple de diseñar y económico. Dependiendo el tipo de índice de refracción del núcleo. Índice gradual: mientras en este tipo. soporta hasta 10 Gigabit Ethernet(300 m). Su transmisión es 160 . Las fibras multimodo se usan comúnmente en aplicaciones de corta distancia. tiene alta dispersión modal. usan LED como emisores OM3: Fibra 50/125 µm. Monomodo: Una fibra monomodo es una fibra óptica en la que sólo se propaga un modo de luz. • • • OM1: Fibra 62. tenemos dos tipos de fibra multimodo: • • Índice escalonado: en este tipo de fibra.5/125 µm.

Contiene varias fibras con protección secundaria que rodean un miembro central de tracción. Los tubos pueden ser huecos o estar llenos de un gel hidrófugo que actúa como protector antihumedad impidiendo que el agua entre en la fibra. las fibras monomodo permiten alcanzar grandes distancias (hasta 300 km máximo. LC y MT-Array que se utilizan en transmisiones de alta densidad de datos. todo ello cubierto de una protección exterior. • • FDDI. el tipo de emisor del haz de luz. A diferencia de las fibras multimodo. Los tipos de conectores disponibles son muy variados. ya puede ser un transmisor o un receptor. los conversores de luz. lleva varias fibras ópticas que descansan holgadamente en él. se usa para redes de fibra óptica. etc Conectores: Estos elementos se encargan de conectar las líneas de fibra a un elemento. es más flexible y con un radio de curvatura más pequeño que el que tienen los cables de estructura holgada. mediante un láser de alta intensidad) y transmitir elevadas tasas de información (decenas de Gb/s) Por su diseño: • Cables de estructura holgada: Es un cable empleado tanto para exteriores como para interiores que consta de varios tubos de fibra rodeando un miembro central de refuerzo y provisto de una cubierta protectora. Cada tubo de fibra. también provee un soporte físico que serviría para reducir su coste de instalación al permitir reducir las bandejas de empalmes. 161 . • Cables de estructura ajustada: Es un cable diseñado para instalaciones en el interior de los edificios. que se usa en la transmisión de datos y en las telecomunicaciones. Esta protección plástica además de servir como protección adicional frente al entorno.paralela al eje de la fibra. entre los que podemos encontrar se hallan los siguientes: • FC. hasta alcanzar un diámetro de 900 µm rodeando al recubrimiento de 250 µm de la fibra óptica. Cada fibra tiene una protección plástica extrusionada directamente sobre ella. de dos a tres milímetros de diámetro. Componentes de la fibra óptica Dentro de los componentes que se usan en la fibra óptica caben destacar los siguientes: los conectores. El tubo holgado aísla la fibra de las fuerzas mecánicas exteriores que se ejerzan sobre el cable.

solo se puede usar en fibras multimodo. Lasers. esta corriente es proporcional a la potencia recibida. su tiempo de vida es largo pero menor que el de los LEDs y también son mucho más costosos. Se limitan a obtener una corriente a partir de la luz modulada incidente. Estos detectores se pueden clasificar en tres tipos: • de silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90% trabajando en primera ventana. pero su uso es fácil y su tiempo de vida es muy grande. Emisores del haz de luz: Estos dispositivos se encargan de emitir el haz de luz que permite la transmisión de datos. es decir. 162 . Este tipo de emisor usa una corriente de 5 a 40 mA. ST o BFOC se usa en redes de edificios y en sistemas de seguridad. y por tanto. Se fundamenta en el fenómeno opuesto a la recombinación. Se utiliza principalmente en sistemas que permiten una fácil discriminación entre posibles niveles de luz y en distancias cortas. en la generación de pares electrón-hueco a partir de los fotones. su velocidad es lenta. • Detectores PIN: Su nombre viene de que se componen de una unión P-N y entre esa unión se intercala una nueva zona de material intrínseco (I). Utilizan una corriente de 50 a 100 mA. estos emisores pueden ser de dos tipos: • • LEDs. Conversores de luz-corriente eléctrica: Este tipo de conversores convierten las señales ópticas que proceden de la fibra en señales eléctricas. a la forma de onda de la señal moduladora. son muy rápidos. Hay dos tipos de detectores: los fotodiodos PIN y los de avalancha APD.• • SC y SC-Dúplex se utilizan para la transmisión de datos. se puede usar con los dos tipos de fibra. contra un átomo para que sea capaz de arrancarle otro electrón. la cual mejora la eficacia del detector. El tipo más sencillo de detector corresponde a una unión semiconductora P-N. además de ser económicos. • Detectores APD: El mecanismo de estos detectores consiste en lanzar un electrón a gran velocidad (con la energía suficiente). pero por el contrario su uso es difícil. Requieren alta tensión de alimentación (200-300V). monomodo y multimodo.

El ciberespacio es un mundo lento hasta el desespero. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC. Por tanto dependiendo de los requerimientos de comunicación la fibra óptica puede constituir el mejor sistema. Se mantiene estable entre -40 y 200 ºC . un módem y algunos programas. el costo de construcción de una planta de fibra óptica es comparable con una planta de cobre. las ventajas y sus desventajas. Costo y mantenimiento El costo de los cables de fibra óptica y la tecnología asociada con su instalación ha caído drásticamente en los últimos años. gráficas. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica. no sólo se necesitan un computador.• • de germanio: aptos para trabajar con longitudes de onda comprendidas entre 1000 y 1300 nm y con un rendimiento del 70%. Las señales se pueden transmitir a través de zonas eléctricamente ruidosas con muy bajo índice de error y sin interferencias eléctricas. Para navegar por la red mundial de redes. Sin embargo si el requerimiento de capacidad de información es bajo la fibra óptica puede ser de mayor costo. El propósito del siguiente artículo es describir el mecanismo de acción. el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet. Esto se debe a que las líneas telefónicas. de compuestos de los grupos III y V. Internet. no fueron creadas para transportar videos. APLICACIONES DE LA FIBRA ÓPTICA Internet: El servicio de conexión a Internet por fibra óptica. sino también una gran dosis de paciencia. Las características de transmisión son prácticamente inalterables debido a los cambios de temperatura. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. textos y todos los demás elementos que viajan de un lado a otro en la Red. los costos de mantenimiento de una planta de fibra óptica son muy inferiores a los de una planta de cobre. derriba la mayor limitación del ciberespacio: su exasperante lentitud. Además. siendo innecesarios y/o simplificadas la ecualización y compensación de las variaciones en tales propiedades. Hoy en día. 163 .

aplicaciones y recursos (por ejemplo impresoras). Las WAN son similares a las LAN. conjunto de ordenadores que pueden compartir datos. a la capacidad de transmisión. Las computadoras de una red de área local (LAN.600 bps. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. y suelen usarse en oficinas o campus universitarios.000 0 33. Una ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar un repetidor para recuperar su intensidad. estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. Las redes de comunicación públicas están divididas en diferentes niveles. conforme al funcionamiento. Wide Area Network) o las centralitas particulares (PBX). Una LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. pero no resultan adecuadas para emitir y recibir los picos de datos de corta duración empleados por la mayoría de las aplicaciones informáticas. Red de área local o LAN. pero conectan entre sí ordenadores separados por distancias mayores. que proporcionan conexiones transcontinentales y transoceánicas. en el que la mayoría de usuarios se conecta a 28. impensable en el sistema convencional. los repetidores de fibra óptica están separados entre sí unos 100 km. Al contrario que las comunicaciones de larga distancia. Redes: La fibra óptica se emplea cada vez más en la comunicación. Los amplificadores de fibra óptica recientemente desarrollados pueden aumentar todavía más esta distancia. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra. así como al alcance 164 . Las PBX proporcionan conexiones informáticas continuas para la transferencia de datos especializados como transmisiones telefónicas. Hoy funcionan muchas redes de fibra para comunicación a larga distancia. Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local. Otros recursos informáticos conectados son las redes de área amplia (WAN. Local Area Network) están separadas por distancias de hasta unos pocos kilómetros. debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia. En las redes de comunicaciones se emplean sistemas de láser con fibra óptica.La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps. En la actualidad. frente a aproximadamente 1.5 km en los sistemas eléctricos. situados en distintos lugares de un país o en diferentes países.

porque la luz transmitida a través de las fibras es sensible a numerosos cambios ambientales. Para la conexión de un teléfono es completamente suficiente con los conductores de cobre existentes. se dispone de los sistemas de transmisión por fibra óptica para los niveles de la red de telecomunicaciones públicas en una amplia aplicación. impreciso o incluso peligroso. en este caso se utilizan haces de varios miles de fibras muy finas. las ondas de sonido y la deformación. También pueden emplearse para transmitir imágenes. entre ellos la presión. También se han desarrollado fibras que transmiten rayos láser de alta potencia para cortar y taladrar materiales. Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado. es decir. hay ante todo una serie de consideraciones. hacia el centro la red urbana y finalmente las líneas de abonado. Telefonía: Con motivo de la normalización de interfaces existentes. como la cavidad perforada por la turbina de un dentista. se tiene primeramente la red interurbana y red provisional. Por ejemplo. contrariamente para sistemas de la red de abonado (línea de abonado). los servicios de banda ancha posteriormente se ampliarán con los servicios de distribución de radio y de televisión en una red de telecomunicaciones integrada en banda ancha (IBFN). etc. Con el BIGFON (red urbana integrada de telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias experiencias en este aspecto. si está aproximándose desde el exterior hacia el interior de una gran ciudad. Según la estrategia elaborada. cables con fibras monomodo ó multimodo. La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares que serían difíciles de iluminar de otro modo. situadas exactamente una al lado de la otra y ópticamente pulidas en sus extremos. además del calor y el movimiento. Precisamente con la implantación de los servicios en banda ancha como la videoconferencia. la videotelefonía. Las fibras pueden resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un cable convencional resultara inútil. Su potencial de aplicación en este campo casi no tiene límites. con lo que se reconstruye la imagen. a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural). que puede ser observada a través de una lupa. la fibra óptica se hará imprescindible para el abonado. Otras aplicaciones Las fibras ópticas también se emplean en una amplia variedad de sensores. que van desde termómetros hasta giroscopios.que definen. La transmisión de imágenes se utiliza mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con 165 . Cada punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro extremo.

5 0.4 40 166 . en sistemas de reproducción mediante facsímil y fotocomposición. IMAGENES COMPARACIÓN CON OTROS MEDIOS DE COMUNICACIÓN Características Longitud de la Bobina (mts) Peso (kgs/km) Diámetro (mm) Radio de Curvatura (cms) Distancia entre repetidores (Kms) Atenuación (dB / km) para un Sistema de 56 Mbps Fibra Óptica 2000 190 14 14 40 Coaxial 230 7900 58 55 1. en gráficos de ordenador o computadora y en muchas otras aplicaciones.láser.

Un ramo de fibras ópticas. 167 . Cable submarino de fibra óptica.

Tipos de fibra óptica. Núcleo y revestimiento de la fibra óptica 168 .

de CONCLUSIÓN Este nueva generación de transmisores de comunicación esta saliendo ya muy avanzada aunque ya desde tiempo atrás ya el hombre era capas de controlar los emisiones de luz para comunicarse pero era demasiado lenta.Tipos conectores de la fibra óptica. 169 .

Por lo que la fibra óptica a superado por completo al cable tradicional ya que este es deficiente. Internet. un módem y algunos programas. en cambio la fibra óptica es mucho mas efectiva y no sufre de estática o interferencia como otras mas ventajas que posee este tipo de material. no sólo se necesitan un computador. Fibra Óptica IV Para navegar por la red mundial de redes. sino también una gran dosis de 170 .Con el tiempo esta técnica se ha ido mejorando y entre más pasa el tiempo esto irá mejorando.

Esto se debe a que las líneas telefónicas. como derivación de los estudios en física enfocados a la óptica. En 1977. que fue aplicado a las telecomunicaciones con el fin de que los mensajes se transmitieran a velocidades inusitadas y con amplia cobertura. conocido hoy como la fibra óptica. en 1959. no fueron creadas para transportar vídeos. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC. gráficas. El ciberespacio es un mundo lento hasta el desespero. En 1966 surgió la propuesta de utilizar una guía óptica para la comunicación. se instaló un sistema de prueba en Inglaterra. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica. Esta forma de usar la luz como portadora de información se puede explicar de la siguiente manera: Se trata en realidad de una onda electromagnética de la misma 171 . a la que se denominó rayo láser. dos años después. textos y todos los demás elementos que viajan de un lado a otro en la Red. el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet. se producían ya cantidades importantes de pedidos de este material. Antes. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. ORIGEN Y EVOLUCION La Historia de la comunicación por la fibra óptica es relativamente corta. Sin embargo esta utilización del láser era muy limitada debido a que no existían los conductos y canales adecuados para hacer viajar las ondaselectromagnéticas provocadas por la lluvia de fotones originados en la fuente denominada láser.paciencia. Fue entonces cuando los científicos y técnicos especializados en óptica dirigieron sus esfuerzos a la producción de un ducto o canal. se descubrió una nueva utilización de la luz.

La luz se mueve a la velocidad de la luz en el vacío. El vidrio ordinario tiene un haz luminoso de pocos metros. Lo que se debe usar depende de los requisitos técnicos para diseñar el circuito de fibras ópticas dado. con la única diferencia que la longitud de las ondas es del orden de micrómetros en lugar de metros o centímetros. Los diodos emiten luz "incoherente" que ni es fuerte ni concentrada. sin embargo. lo que ha exigido considerable labor de investigación y desarrollo.naturaleza que las ondas de radio. Los láseres generan luz "coherente" intensa que permanece en un camino sumamente estrecho. El concepto de las comunicaciones por ondas luminosas ha sido conocido por muchos años. Así. es conveniente resaltar ciertos aspectos básicos de óptica. QUE ES LA FIBRA OPTICA Antes de explicar directamente que es la fibra óptica. Estos vidrios empezaron a producirse a principios de los setenta. Se usaron láseres o diodos emisores de luz como fuente luminosa en los cables de fibras ópticas. Estos indicaban que era posible confiar un haz luminoso en una fibra transparente flexible y proveer así un análogo óptico de la señalización por alambres electrónicamente. Ambos han de ser miniaturizados para componentes de sistemas fibro-ópticos. la fibra óptica debe transmitir señales luminosas detestables por muchos kilómetros. cuando la luz pasa de propagarse por un cierto medio a propagarse 172 . Para la comunicación práctica. Sin embargo. Este gran avance dio ímpetu a la industria de fibras ópticas. Se han desarrollado nuevos vidrios muy puros con transparencias mucho mayores que la del vidrio ordinario. la velocidad es menor. El problema técnico que se había de resolver para el avance de la fibra óptica residía en las fibras mismas. no fue hasta mediados de los años setenta que se publicaron los resultados del trabajoteórico. que absorbían luz que dificultaba el proceso. cuando se propaga por cualquier otro medio.

como la luz reflejada en los cristales) y de refracción (la luz. en un cable de este tipo en el que los materialesson mucho más económicos que los convencionales de cobre en telefonía. Esto se ve de mejor forma en el dibujo que aparece a nuestra derecha. De forma que se consigue guiar la luz por el cable. la dirección de donde nos viene la luz en la parte que está al aire no es la misma que la que está metida en el agua). lo dice el nombre). La ley más importante que voy a utilizar en este artículo es la siguiente para la refracción: Esta fórmula nos dice que el índice de refracción del primer medio.por otro determinado medio. se le asigna un Índice de Refracción "n". un número deducido de dividir la velocidad de la luz en el vacío entre la velocidad de la luz en dicho medio. ¿Y esto para que sirve?. por el seno del ángulo con el que incide la luz en el segundo medio. De esta forma se puede guiar la luz de forma controlada tal y como se ve en el dibujo de abajo (que representa de forma esquemática como es la fibra óptica). de hecho son materiales ópticos mucho más ligeros (fibra óptica. sufriendo además efectos de reflexión (la luz rebota en el cambio de medio. además de cambiar el modulo de su velocidad. por eso vemos una cuchara como doblada cuando está en un vaso de agua. tenemos un material envolvente con índice n y un material interior con índice n'. La Fibra Óptica consiste por tanto. Dependiendo de la velocidad con que se propague la luz en un medio o material. de modo que pueden ir muchos más cables en el espacio donde antes solo iba un cable de cobre. si el haz de luz incide con un ángulo mayor que un cierto ángulo límite (que se determina con la anterior ecuación) el haz siempre se reflejara en la superficie de separación entre ambos medios. del espesor de un pelo (entre 10 y 300 173 . Los efectos de reflexión y refracción que se dan en la frontera entre dos medios dependen de sus Índices de Refracción. lo único que nos interesa aquí de esta ley es que dados dos medios con índices n y n'. es igual al índice del segundo medio por el seno del ángulo con el que sale propagada la luz en el segundo medio. y además los cables son mucho más finos. cambia de direcciónde propagación. Como se ve en el dibujo. su velocidad cambia. CONCEPTO DE FIBRA OPTICA Los circuitos de fibra óptica son filamentos de vidrio (compuestos de cristales naturales) o plástico(cristales artificiales).

174 . ya que en las fibras no se pierde información por refracción o dispersión de luz consiguiéndose así buenos rendimientos. Fabricación de la Fibra Óptica Las imágenesaquí muestran como se fabrica la fibra monomodo. la luz que viaja por el centro o núcleo de la fibra incide sobre la superficie externa con un ángulo mayor que el ángulo crítico. Además. Concluyo pues diciendo que.micrones). donde quiera que el filamento vaya (incluyendo curvas y esquinas) sin interrupción. las señales se ven atenuadas por la resistenciadel material a la propagación de las ondas electromagnéticas de forma mayor. También se puede usar la fibra óptica para transmitir luz directamente y otro tipo de ventajas en las que no entraré en detalle. en el cobre. como en grandes redes geográficas (como los sistemas de largas líneas urbanas mantenidos por compañías telefónicas). Así. lo que en telefonía se llama unir o multiplexar diferentes conversaciones eléctricas. Para evitar pérdidas por dispersión de luz debida a impurezas de la superficie de la fibra. de forma que toda la luz se refleja sin pérdidas hacia el interior de la fibra. Cada etapa de fabricación esta ilustrada por una corta secuencia filmada. El principio en que se basa la transmisión de luz por la fibra es la reflexión interna total. Las fibras ópticas pueden ahora usarse como los alambres de cobre convencionales. Llevan mensajes en forma de haces de luz que realmente pasan a través de ellos de un extremo a otro. la luz puede transmitirse a larga distancia reflejándose miles de veces. las reflexiones se producen en la superficie que separa la fibra de vidrio y el recubrimiento. el núcleo de la fibra óptica está recubierto por una capa de vidrio con un índice de refracción mucho menor. se pueden emitir a la vez por el cable varias señales diferentes con distintas frecuencias para distinguirlas. la Fibra Óptica consiste en una guía de luz con materiales mucho mejores que lo anterior en varios aspectos. tanto en pequeños ambientes autónomos (tales como sistemas de procesamiento de datosde aviones). sin embargo. A esto le podemos añadir que en la fibra óptica la señal no se atenúa tanto como en el cobre.

línea de fibra óptica (primer tramo ). corrector óptico. empalme. línea de fibra óptica (segundo tramo). similar a la señal original. Una vez que es transmitida la señal luminosa por las minúsculas fibras. el núcleo es la parte más interna de la fibra y es la que guía la luz. generado por el transmisor de LED’S (diodos emisores de luz) y láser. fuente de luz. se puede decir que este proceso de comunicación. debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. corrector óptico. de señal de entrada. amplificador. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica. materia prima abundante en comparación con el cobre. receptor. con unos kilogramos de vidrio pueden fabricarse aproximadamente 43 kilómetros de fibra óptica. por ello se le considera el componente activo de este proceso. el revestimiento es la parte que rodea y protege al núcleo. los roedores. ¿ De qué están hechas las Fibras Ópticas ? La mayoría de las fibras ópticas se hacen de arena o sílice. la fibra óptica funciona como medio de transportación de la señal luminosa. En resumen. amplificador y señal de salida. cuya misión consiste en transformar la señal luminosa en energía electromagnética. El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda de plástico u otros materiales que lo resguardan contra la humedad. Una barra de vidrio de una longitud de 1 m y de un diámetro de 10 cm permite obtener por estiramiento una fibra monomodo de una longitud de alrededor de 150 km.La primera etapa consiste en el ensamblado de un tubo y de una barra de vidrio cilíndrico montados concéntricamente. El sistema básico de transmisión se compone en este orden. en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor. Además su pequeño 175 . Los dos constituyentes esenciales de las fibras ópticas son el núcleo y el revestimiento. el aplastamiento. Se calienta el todo para asegurar la homogeneidad de la barra de vidrio. ¿ Cómo funciona la Fibra Óptica ? En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa. y otros riesgos del entorno. Consiste en una o varias hebras delgadas de vidrio o de plástico con diámetro de 50 a 125 micras.

receptor y guía de fibra. un conversor de corriente a voltaje un amplificador de voltaje y una interfase analógica o digital En un transmisor de fibra óptica la fuente de luz se puede modular por una señal análoga o digital. Ambos convierten la energía de luz en corriente. La conexión de fuente a fibra es una interfase mecánica cuya función es acoplar la fuente de luz al cable. se requiere un conversor corriente a voltaje que transforme los cambios en la corriente del detector a cambios de voltaje en la señal de salida. El receptor incluye un dispositivo conector detector de fibra a luz. un conversor de voltaje a corriente. su luminosidad. por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de entrada en una corriente que se usa para dirigir la fuente de luz. El transmisor consiste de una interfase analógica o digital. longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas. COMPONENTES Y TIPOS DE FIBRA ÓPTICA Componentes de la Fibra Óptica 176 . la cantidad de luz emitida es proporcional a la corriente de excitación. un foto detector. El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de avalancha). ¿Cuáles son los dispositivos implícitos en este proceso? Los bloques principales de un enlace de comunicaciones de fibra óptica son: transmisor. La guía de fibra es un vidrio ultra puro o un cable plástico. Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales.tamaño. una cubierta y una capa protectora. El conversor de voltaje a corriente sirve como interfase eléctrica entre los circuitos de entrada y la fuente de luz. una fuente de luz y un adaptador de fuente de luz a fibra. El dispositivo de acoplamiento del detector de fibra a luz también es un acoplador mecánico. En consecuencia. La fibra óptica consiste de un núcleo de fibra de vidrio o plástico. La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección láser ILD.

Los rayos luminosos se encuentran enfocados hacia el eje de la fibra.5/125 m (diámetro del núcleo/diámetro de la cubierta) está normalizado. La fibra multimodo de índice de gradiente gradual de tamaño 62. Si el núcleo está constituido de un material cuyo índice de refracción es muy diferente al de la cubierta. pero se pueden encontrar otros tipos de fibras: Multimodo de índice escalonado 100/140 mm. esta es la fibra que ofrece la mayor capacidad de transportede información. entonces se habla de fibras monomodo de índice escalonado. Los mayores flujos se consiguen con esta fibra. o camino del haz luminoso.en el cual se propagan las ondas ópticas. Fibra Multimodo de índice escalonado: 177 . como se puede ver en el dibujo. pero también es la más compleja de implantar. El dibujo muestraque sólo pueden ser transmitidos los rayos que tienen una trayectoria que sigue el eje de la fibra. El revestimiento de protección: por lo general esta fabricado en plástico y asegura la protección mecánica de la fibra. cuarzo fundido o plástico .El Núcleo: En sílice. ya que sus pequeñas dimensiones implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal. La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con aditivos que confinan las ondas ópticas en el núcleo. Su principio se basa en que el índice de refracción en el interior del núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través del núcleo de la fibra. único). Tipos de Fibra Óptica: Fibra Monomodo Potencialmente. es decir. Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las fibras monomodo. por lo que se ha ganado el nombre de "monomodo" (modo de propagación.5 um para la fibra multimodo y 9um para la fibra monomodo. Diámetro: 50 o 62. Multimodo de índice de gradiente gradual 50/125 m m. de unos 5 a 8 m m. Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de onda de las señales ópticas que transmiten. Fibra Multimodo de Índice Gradiante Gradual: Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta los 500MHz por kilómetro. Tiene una banda de paso del orden de los 100 GHz/km.

con una atenuación de 100 dB/km.Sistemas con conectores BFOC/2. En estas fibras. 2. Para ver el gráfico seleccione la opción "Descargar" del menú superior Para la terminación de una fibra óptica es necesario utilizar conectores o empalmar Pigtails (cables armados con conector) por medio de fusión.. El paso desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice. condicionado a la coincidencia del perfil del pulido. 178 .Se recomienda el conector 568SC pues este mantiene la polaridad.. Identificación: Conectores y adaptadores Multimodo se representan por el color marfil Conectores y adaptadores Monomodo se representan por el color azul. Pueden ser provistos también acopladores de tipo "Híbridos".5 y adaptadores (Tipo ST) instalados pueden seguir siendo utilizados en plataformas actuales y futuras.Las fibras multimodo de índice escalonado están fabricadas a base de vidrio. Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. de ahí su nombre de índice escalonado. que permiten acoplar dos diseños distintos de conector. con una atenuación de 30 dB/km. La posición correspondiente a los dos conectores del 568SC en su adaptador. Esto ayuda a mantener la polaridad correcta en el sistema de cableado y permite al adaptador a implementar polaridad inversa acertada de pares entre los conectores. se denominan como A y B. Conectores: 1. o plástico. Para el caso de conectorización se encuentran distintos tipos de conectores dependiendo el uso y l normativa mundial usada y sus características. uno de cada lado. ST conector de Fibra para Monomodo o Multimodo con uso habitual en Redes de Datos y equipos de Networking locales en forma Multimodo. el núcleo está constituido por un material uniforme cuyo índice de refracción es claramente superior al de la cubierta que lo rodea. ¿ Qué tipo de conectores usa ? Con la Fibra Óptica se puede usar Acopladores y Conectores: Acopladores: Un acoplador es básicamente la transición mecánica necesaria para poderdar continuidad al paso de luz del extremo conectorizado de un cable de fibra óptica a otro.

y funcionamiento ambiental extendida. la cubierta resistente.Para ver el gráfico seleccione la opción "Descargar" del menú superior SC conector de Fibra óptica para Monomodo y Multimodo con uso habitual en telefonía en formato monomodo. El agua puede acumularse en pequeñas piscinas en los vacíos. combaten la intrusión de humedad con múltiples capas de protección alrededor de la fibra óptica. CARACTERÍSTICAS DE LA FIBRA ÓPTICA Características Generales: Coberturas más resistentes: La cubierta especial es extruida a alta presión directamente sobre el mismo núcleo del cable. buffer de 900 µm. El resultado es una mayor vida útil. mayor confiabilidad especialmente ambientes húmedos.FC conector de Fibra Óptica para Monomodo o Multimodo con uso habitual en telefonía y CATV en formato Monomodo y Monomodo Angular. Mayor protección en lugares húmedos: En cables de tubo holgado rellenos de gel. La cubierta contiene 25% más material que las cubiertas convencionales. contribuyen a una mayor confiabilidad durante el tiempo de vida. resultando en que la superficie interna de la cubierta del cable tenga arista helicoidales que se aseguran con los subcables. Uso Dual (interior y exterior): La resistencia al agua. Protección Anti-inflamable: 179 . el gel dentro de la cubierta se asienta dejando canales que permitan que el agua migre hacia los puntos de terminación. y cuando la delicada fibra óptica es expuesta. hongos y emisiones ultra violeta. fibras ópticas probadas bajo 100 kpsi. la vida útil es recortada por los efectos dañinos del agua en contacto.

180 . El sílice tiene un amplio margen de funcionamiento en lo referente a temperatura. y pueden además crear un reto costoso y difícil en la restauración después de un incendio. Estos materiales no pueden cumplir con los requerimientos de las normasde instalación. Cuanto mayor sea esta anchura. La capacidad de transmisión de información que tiene una fibra óptica depende de tres características fundamentales: a) Del diseño geométrico de la fibra. Empaquetado de alta densidad: Con el máximo número de fibras en el menor diámetro posible se consigue una más rápida y más fácil instalación.O. Características Técnicas: La fibra es un medio de transmisión de información analógica o digital.Los nuevos avances en protección anti-inflamable hace que disminuya el riesgo que suponen las instalaciones antiguas de Fibra Óptica que contenían cubiertas de material inflamable y relleno de gel que también es inflamable. Básicamente. por la cual se efectúa la propagación. presenta un funcionamiento uniforme desde -550 C a +125C sin degradación de sus características. totalmente necesaria para que se produzca el mecanismo de propagación. donde el cable debe enfrentar dobleces agudos y espacios estrechos. denominada núcleo y de una zona externa al núcleo y coaxial con él. (diseño óptico) c) De la anchura espectral de la fuente de luz utilizada. la fibra óptica está compuesta por una región cilíndrica. Presenta dimensiones más reducidas que los medios preexistentes. Con los nuevos avances en este campo y en el diseño de estos cables se eliminan estos riesgos y se cumple con las normas de instalación. menor será la capacidad de transmisión de información de esa fibra. redundando en su facilidad de instalación. pues funde a 600C. Las ondas electromagnéticas viajan en el espacio a la velocidad de la luz. Se ha llegado a conseguir un cable con 72 fibras de construcción súper densa cuyo diámetro es un 50% menor al de los cables convencionales. presentan un riesgo adicional. y proporciona la misma o más información que un coaxial de 10 tubos. Un cable de 10 fibras tiene un diámetro aproximado de 8 o 10 mm. El peso del cable de fibras ópticas es muy inferior al de los cables metálicos. La F. b) De las propiedades de los materiales empleados en su elaboración. y que se denomina envoltura o revestimiento.

Otro objetivo es minimizar las pérdidas adicionales por cableado y las variaciones de la atenuación con la temperatura. el coeficiente de relleno (número de fibras por mm2) o el costo de producción. Tales diferencias se deben a diseños calculados a veces para mejorar otras propiedades. en la mayoría de los casos las instalaciones se encuentran a la intemperie o en ambientes agresivos que pueden afectar al núcleo.Características Mecánicas: La F. Impacto: se debe principalmente a las protecciones del cable óptico. como elemento resistente dispuesto en el interior de un cable formado por agregación de varias de ellas. Por otra parte. la existencia del forro impide que se sobrepase. Limitaciones Térmicas: estas limitaciones difieren en alto grado según se trate de fibras realizadas a partir del vidrio o a partir de materiales sintéticos. como la resistencia mecánica. La investigación sobre componentes optoelectrónicos y fibras ópticas han traído consigo un sensible aumento de la calidad de funcionamiento de los sistemas. Enrollamiento: existe siempre un límite para el ángulo de curvatura pero. la resistencia mecánica y las características de envejecimiento. la calidad de empalme. Es necesario disponer de cubiertas y protecciones de calidad capaces de proteger a la fibra. no tiene características adecuadas de tracción que permitan su utilización directa. Las microcurvaturas y tensiones se determinan por medio de los ensayos de: Tensión: cuando se estira o contrae el cable se pueden causar fuerzas que rebasen el porcentaje de elasticidad de la fibra óptica y se rompa o formen microcurvaturas. VENTAJAS Y DESVENTAJAS DE LA FIBRA ÓPTICA 181 . Torsión:es el esfuerzo lateral y de tracción. Para alcanzar tal objetivohay que tener en cuenta su sensibilidad a la curvatura y microcurvatura. Compresión: es el esfuerzo transversal.O.

Acceso ilimitado y continuo las 24 horas del día. La materia prima para fabricarla es abundante en la naturaleza. Carencia de señales eléctricas en la fibra. Video y sonido en tiempo real. como ocurre cuando un alambre telefónico pierde parte de su señal a otra. las empresas no cobran por tiempo de utilización sino por cantidad de información transferida al computador. DESVENTAJAS Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica. Compatibilidad con la tecnología digital. capaz de llevar un gran número de señales. por lo que la transmisión es también segura y no puede ser perturbada. Dificultad de reparar un cable de fibras roto en el campo. El costo de instalación es elevado. APLICACIONES Internet 182 . Disponibilidad limitada de conectores.VENTAJAS La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps. El peso del cable de fibras ópticas es muy inferior al de los cables metálicos. El costo es alto en la conexión de fibra óptica. Son convenientes para trabajar en ambientes explosivos. sin congestiones. que se mide en megabytes. Fragilidad de las fibras. Presenta dimensiones más reducidas que los medios preexistentes. por lo que no pueden dar sacudidas ni otros peligros. Es inmune al ruido y las interferencias. Las fibras no pierden luz. Fácil de instalar.

textos y todos los demás elementos que viajan de un lado a otro en la Red. Una ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar un repetidor para recuperar su intensidad. Al contrario que las comunicaciones de larga distancia. derriba la mayor limitación del ciberespacio: su exasperante lentitud. en el que la mayoría de usuarios se conecta a 28. El propósito del siguiente artículo es describir el mecanismo de acción. frente a aproximadamente 1. Pero las líneas telefónicas no son la única vía hacia el ciberespacio. conjunto de ordenadores que pueden compartir datos. En las redes de comunicaciones se emplean sistemas de láser con fibra óptica. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra. impensable en el sistema convencional. Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local. Red de área local o LAN. un módem y algunos programas.5 km en los sistemas eléctricos. los repetidores de fibra óptica están separados entre sí unos 100 km. La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps. aplicaciones y recursos (por ejemplo impresoras). Hoy funcionan muchas redes de fibra para comunicación a larga distancia. Una 183 . Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC. Internet. Redes La fibra óptica se emplea cada vez más en la comunicación.El servicio de conexión a Internet por fibra óptica. Local Area Network) están separadas por distancias de hasta unos pocos kilómetros. debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia. Los amplificadores de fibra óptica recientemente desarrollados pueden aumentar todavía más esta distancia. no sólo se necesitan un computador. El ciberespacio es un mundo lento hasta el desespero. no fueron creadas para transportar videos. el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet. y suelen usarse en oficinas o campus universitarios.000 0 33. que proporcionan conexiones transcontinentales y transoceánicas. En la actualidad. Las computadoras de una red de área local (LAN. Esto se debe a que las líneas telefónicas.600 bps. estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. gráficas. sino también una gran dosis de paciencia. las ventajas y sus desventajas. Para navegar por la red mundial de redes. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.

Las PBX proporcionan conexiones informáticas continuas para la transferencia de datos especializados como transmisiones telefónicas. Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado. pero conectan entre sí ordenadores separados por distancias mayores. cables con fibras monomodo ó multimodo. Por ejemplo. pero no resultan adecuadas para emitir y recibir los picos de datos de corta duración empleados por la mayoría de las aplicaciones informáticas. Las WAN son similares a las LAN. etc. contrariamente para sistemas de la red de abonado (línea de abonado). Otras aplicaciones Las fibras ópticas también se emplean en una amplia variedad de sensores. la videotelefonía. conforme al funcionamiento. situados en distintos lugares de un país o en diferentes países. que van desde termómetros hasta giroscopios. la fibra óptica se hará imprescindible para el abonado. Otros recursos informáticos conectados son las redes de área amplia (WAN. es decir. emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. Con el BIGFON (red urbana integrada de telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias experiencias en este aspecto. Para la conexión de un teléfono es completamente suficiente con los conductores de cobre existentes. Wide Area Network) o las centralitas particulares (PBX). porque la luz transmitida a través de las fibras es 184 . Según la estrategia elaborada. se tiene primeramente la red interurbana y red provicional. Las redes de comunicación públicas están divididas en diferentes niveles. hay ante todo una serie de consideraciones. Telefonía Con motivo de la normalización de interfaces existentes. hacia el centro la red urbana y finalmente las líneas de abonado. a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural). así como al alcance que definen. si está aproximándose desde el exterior hacia el interior de una gran ciudad. a la capacidad de transmisión. se dispone de los sistemas de transmisión por fibra óptica para los niveles de la red de telecomunicaciones públicas en una amplia aplicación. los servicios de banda ancha posteriormente se ampliarán con los servicios de distribuciónde radio y de televisión en una red de telecomunicaciones integrada en banda ancha (IBFN).LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación. Su potencial de aplicación en este campo casi no tiene límites. Precisamente con la implantación de los servicios en banda ancha como la videoconferencia.

que puede ser observada a través de una lupa. en este caso se utilizan haces de varios miles de fibras muy finas. Motorola socio tecnológico de Supercable El anuncio ha despertado el interés del sector de negocios de la televisión paga en la región. se encuentra en capacidad de incursionar en el vasto mercado de las telecomunicaciones. El acuerdo incluye la implementación de una plataforma de cable digital interactivo en Bogotá y en Caracas. La totalidad de la red de SuperCable es de fibra óptica que permite la transmisión de banda ancha. También pueden emplearse para transmitir imágenes. en sistemas de reproducción mediante facsímil y fotocomposición. Son los únicos capaces de brindar tecnología de punta. en gráficos de ordenador o computadora y en muchas otras aplicaciones. en Estados Unidos. la cobertura geográfica más amplia. las ondas de sonido y la deformación. Las fibras pueden resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un cable convencional resultara inútil. y servicio personalizado. Cada punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro extremo. el que será transformado en un paquete de servicios interactivos en los próximos años. la mayor eficiencia de la inversión publicitaria. Nuestros estudios de mercadeo en Bogotá revelaron que hay deficiencias en casi todas las plataformas de televisión por cable: en calidad de señal y 185 . Instalaron su casa matrizen el sur de La Florida. video y data que ha ofrecido televisión por cable en Venezuela desde comienzo de los años 90. También se han desarrollado fibras que transmiten rayos láser de alta potencia para cortar y taladrar materiales. impreciso o incluso peligroso. además del calor y el movimiento. es de 120 millones de dólares. como la cavidad perforada por la turbina de un dentista. luego se instaló en Venezuela y el año pasado los accionistas de la empresas tomaron la determinación de participar a nivel panregional. entre ellos la presión.sensible a numerosos cambios ambientales. La transmisión de imágenes se utiliza mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser. con lo que se reconstruye la imagen. SuperCable : es una empresa transnacional de servicios de telecomunicaciones en voz. Supercable inició operaciones en Ecuador. La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares que serían difíciles de iluminar de otro modo. Con su tecnología de transmisión de datos en fibra óptica. ¿De cuánto es la inversión que están haciendo en Colombia? La primera etapa del proyecto que estamos contemplando. empresa líder a nivel global en soluciones integrales de comunicaciones y soluciones embebidas. El sector de Banda ancha de Motorola. comunicaciones digitales y compresión de datos. situadas exactamente una al lado de la otra y ópticamente pulidas en sus extremos. El primer paso es el lanzamiento en el mercado colombiano con planes de añadir otro país este año. es el socio tecnológico de Supercable en el desarrollo de su sistema de televisión por cable.

da 68 millones de dólares. Nada despreciable”. tanto estas frecuencias. 884 millones de pesos. Tovar Landa mencionó que el hecho de que Televisa y Telefónica sean también los participantes más importantes en la licitación de espectro. Necesidades en aspectos de Internet y sus precios. Supercable tomó esto como una gran oportunidad y por eso partimos en redes avanzadas. principalmente. dijo Ramiro Tovar Landa. consultor en regulación y competencia económica. Califican a la fibra óptica de la CFE como subsidiada CIUDAD DE MÉXICO (31/MAY/2010).servicios. dijo el experto. ya que es un paso adelante que el país dará. como la fibra óptica. Telefónica y Megacable pagará 97 dólares por cada kilómetro de la red. la adjudicación se hará al precio mínimo. Esa es la esperanza de empresarios y ejecutivos de esta industria y. sean utilizados en forma complementaria. monto que incluye el 3% por licitar las tres rutas conjuntamente de CFE.. Esta inversión le dará al consorcio una capacidad similar de transporte para igual distancia a la de la red de Telmex. Estamos partiendo de cero para atender a un mercado de gran magnitud y de grandes carencias. El espectro les otorgará la cobertura y el ancho de banda necesarias para el 186 . justamente en uno de sus peores momentos. El también académico del ITAM señaló que era de esperarse que ante la ausencia de más competidores en este proceso. fibra óptica y realización de la convergencia de servicios. es decir. la de los usuarios. y ese es el precio que van a pagar por tener una red troncal nacional de más de 20 mil kilómetros de fibra. precio “realmente subsidiado en comparación al costo que tendría tender una red equivalente”. “A una paridad de 13 pesos por dólar. ¿Cómo afrontaran la piratería y los problemas de tarifas? Supercable está haciendo en Colombia una de las inversionesmás importantes en televisión de pago y la reacción incluso de sus competidores ha sido muy positiva. hace que. el consorcio formado por Grupo Televisa.De adjudicarse el par de hilos de fibra óptica oscura de la Comisión Federal de Electricidad (CFE).

que representaba una carga para el país y que no había otra solución. También se adujeron problemas técnicos. asegura especialista En la madrugada del domingo 11 de octubre el presidente de México Felipe Calderón de manera unilateral decretó la desaparición de la Compañía de Luz y Fuerza del Centro. “No sólo se profundiza la exclusividad de los operadores de cable. “La mejor respuesta del gobierno al monopolio de Telmex ha sido fortalecer a otro monopolio”. Los argumentos oficiales fueron que la empresa estatal era ineficiente. en el mejor de los casos. afirmó. sino que en la operación de ambos tipos de infraestructura se facilita la colusión de agentes que deberían de ser competidores entre sí. lo que es contrario a la Ley Federal de Competencia”.transporte interurbano de servicios convergentes (voz. señaló. la paraestatal encargada de surtir energía eléctrica al país. lo cual hace posible que tales grupos ofrezcan en exclusiva servicios hasta de cuádruple play. abogada especialista en telecomunicaciones. aplicaciones) y la fibra les dará la complementariedad de incorporar el servicio móvil a la oferta triple play que ofrecen actualmente las empresas Televisa y Megacable. El costo por kilómetro de red de fibra óptica será de 97 dólares. video. internet. dijo que esto confirma la tendencia a la creación de monopolios y duopolios o. Irene Levy. oligopolios. pero el problema es que no hay visión de Estado en la planeación y rectoría de las telecom. Sin embargo quien en verdad era el objetivo a destruir era el Sindicato Mexicano de Electricistas quien siempre se opuso las políticas 187 . que manejaba números rojos. ESPECIAL o Las posturas están definidas El Gobierno ha favorecido otra empresa fuerte para ponerla a competir con Telmex.

Fibra oscura es la denominación popular que se atribuye a los circuitos de fibra óptica. Las viejas afrentas a los usuarios están a flor de piel y les pasan la factura no solo a Luz y Fuerza sino a todos los trabajadores. Si en un futuro fuese necesario ampliar la capacidad de una red ya existente. La red de fibra óptica. aunque ellos no hayan establecido las tarifas ni sean responsables de muchas de las corruptelas que se dieron en la paraestatal. sin embargo.neoliberales y privatizadoras de los gobiernos en turno. que tiene más de noventa años de vida. imagen y audio. parasitario y de haberse colmado de privilegios. Los 24 restantes son los que se pueden usar para dar el servicio del llamado “triple play” que consiste en televisión por cable. es propiedad de la nación y el Sindicato Mexicano de Electricistas pidió desde hace mucho que se le diera la concesión para dar el servicio. Una enorme campaña de prensa se ha encargado de satanizar a los electricistas y de azuzar a la opinión pública en contra de ellos. Dado lo costoso de esta operación. La guerra por la fibra óptica. según los representantes del sindicato de electricistas ya tenía en mente otorgarla a una compañía privada española y para colmo. MOTIVACION Cuando un operador de telecomunicaciones despliega su red de fibra óptica tiene que hacer una gran inversión para construir las canalizaciones y tender los cables de fibra óptica. mejorando así el rendimiento obtenido puesto que se evitan conversiones innecesarias de protocolos. 188 . de manera que es el propio cliente quien aplica la tecnología de transmisión que más se adecúa a sus necesidades. que han sido desplegados por algún operador de telecomunicaciones. el presidente Felipe Calderón. ésta es un tipo especial de cable que puede llevar y traer una enorme cantidad de datos en video. internet. resulta más atractivo sobredimensionar la red inicial instalando más cables de fibra óptica de los que son necesarios. y telefonía. ineficiente. un dilema nacional Lo que realmente está detrás de la desaparición de Luz y Fuerza y de su sindicato es una gigantesca red de fibra óptica. sería necesario reabrir las zanjas y tender cables adicionales. pero no están siendo utilizados. malbaratarla. se le acusa de corrupto. Al SME. La red de fibra óptica cuenta con treinta cables de los que solo se usan 6 para dar servicio de energía eléctrica. La conectividad por la fibra se comercializa en bruto.

algunos de estos cables nunca llegan a ser utilizados.256 etc. y abarata la extensión a zonas rurales. o enlazar con centros de datos para realizar copias de seguridad constantes de toda la información. ya que no tendrían que abrir zanjas de nuevo. VENTAJA La fibra oscura sirve para que los operadores ahorren ante previsibles ampliaciones de la capacidad de conexión. algo que se puede realizar con mucha agilidad gracias los grandes anchos de banda que garantiza esta tecnología. La fibra oscura puede ser uno de los factores que haga posible la extensión de Internet como derecho universal. Pero si bien pudo ser una medida economizadora.128.64. grandes bancos y organizaciones gubernamentales usan la fibra oscura para interconectar sus centros de procesos de datos con los correspondientes centros de respaldo. La fibra oscura es una opción cara de telecomunicaciones. En último término.16. y que tienen necesidad de grandes anchos de banda para intercomunicar dichas sedes. no todas las fibras se emplean.32. Esto supondrá que todos los ciudadanos tendrán cerca una conexión de banda ancha. nunca se transmite luz a través de ellos. aunque vivan en zonas rurales de difícil acceso para los operadores. Debido al sobredimensionamiento. de al menos un megabit por segundo. GOOGLE LA UTILIZA 189 . De ahí la denominación de fibra oscura INTERES COMERCIAL Existen grandes compañías que disponen de diversas sedes alejadas entre sí por distancias considerables. Las operadoras de telecomunicaciones pueden cubrir estas necesidades concretas alquilando sus circuitos de fibra oscura a estas compañías. Los que quedan sin uso reciben el nombre de fibra oscura. que prometió el Ministerio de Industria para 2011. a cambio de que éste le devuelva el favor cuando se estime oportuno. Es un intercambio denominao "peering". pero existen casos en los que resulta rentable. Por ejemplo.Los cables de fibra pueden contener diferentes números de fibras: 8. Este tipo de negocio reduce la necesidad de realizar nuevas inversiones en zonas donde un operador todavía no ha llegado o tiene poca estructura de red. es decir. que implica que un operador deja sus redes a otro que tenga sobrecarga. La emplean para conectar sedes de empresas. También se utilizan para crear redes auxiliares que se ofrecen a los competidores para evitar colapsos cuando las redes de estos van sobrecargadas. con una particularidad: éstas deben instalar sus propios equipos para operar a través de la fibra y gestionar la comunicación de datos. se ha convertido en un negocio. El motivo es que sus dueños pueden vender esa fibra sobrante a otras empresas.

El Ministerio de Ciencia e Innovación renovará con fibra oscura la RedIRIS. la fibra oscura también interesa a las administraciones públicas. Por esta razón. que penalizan la carga de datos. desde televisión por IP hasta los más diversos trámites con las administraciones públicas. que aplicaciones como la videoconferencia o la televisión en alta definición se pueden producir con una calidad inédita para la mayor parte de los usuarios de Internet en España. Facebook y Microsoft. que interconecta los centros de datos de universidades e institutos de investigación. como un gigabit por segundo. Por otra parte. tanto para rastrear sin descanso los millones de sitios web que pueblan la Red como para proporcionar información a sus usuarios y promover sus diferentes aplicaciones on line. gracias a intercambios de tráfico que realiza con los proveedores de acceso. el Principado de Asturias ya disfruta de la conexión de fibra hasta el hogar en varios municipios gracias a la red Asturcon. 190 . a una simetría con anchos de banda a años luz de los actuales. que gestiona el GIT (Gestión de Infraestructuras de Telecomunicaciones de Asturias).000 habitantes. que ya se comercializa en Portugal. se ha constatado que unas decenas de sitios. realizar copias de seguridad de los resultados que proporciona su buscador y. El nuevo nombre de la misma. epicentro audiovisual en Internet. cuanta más infraestructura de red tengan estos sitios. entre otros. de paso. mayores ahorros de costes conseguirán. LAS ADMINISTRACIONES Aparte de empresas privadas. También utiliza esta red de fibra oscura para enviar con un menor coste la ingente cantidad de vídeos que se reproducen a diario a través de YouTube. en Cataluña se han unido redes de fibra oscura independientes con el objetivo de crear redes locales públicas que permitan usos avanzados. un organismo público que apuesta por la adopción de la fibra óptica. El propósito es llevar la fibra a todos los municipios que tengan más de 1. ahorrar costes. En la actualidad. Por este motivo. tiene tal caudal de ancho de banda. Se pasaría de la asimetría actual de las conexiones ADSL.Google es una de las empresas que más datos transfiere en Internet. monopolizan hasta un 30% del intercambio de datos global. tanto oscura como convencional. se ha dedicado a comprar fibra oscura para interconectar sus centros de datos. FIBRA PARA USOS AVANZADOS La fibra. como Google (incluido YouTube). será RedIRIS Nova y se estima que tendrá anchos de banda de 100 gigabits por segundo. En un estudio sobre el tráfico de datos en Internet. que estará terminada en 2011.

con aplicaciones. la alta velocidad al navegar por internet.. 2. en todos los órdenes de la vida moderna.La historia de la comunicación a través de la Fibra Óptica revolucionó el mundo de la información. reducidas dimensiones y peso.La Fibra Óptica tiene como ventajas indiscutibles. receptor y guía de fibra. así como su inmunidad al ruido e interferencia. lo que constituyó un adelanto tecnológico altamente efectivo..El funcionamiento de la Fibra Óptica es un complejo proceso con diversas operaciones interconectadas que logran que la Fibra Óptica funcione como medio de transportación de la señal luminosa. integrados como un todo a la eficaz realización del proceso. los cuales realizan una importante función técnica. 191 .. generando todo ello por el transmisor LED’S y láser. 4.CONCLUSIONES Después de efectuada la presente investigación se obtienen las siguientes conclusiones: 1. y sobre todo su compatibilidad con la tecnología digital.Los dispositivos implícitos en este complejo proceso son: transmisor. 3..

Por lo demás. A pesar de que su padre se casó cuatro veces. notables por el innovador dinamismo otorgado por la maestría en los contrastes de rasgos. Caterina (que se casó poco después con un artesano de la región). Nació en 1452 en la villa toscana de Vinci. un rico notario florentino. el esplendor de las cortes no tenía límites. en la composición geométrica de la escena y en el extraordinario manejo de la técnica del claroscuro. el hombre fuerte de Milán por entonces. por lo que Leonardo se crió como hijo único. Además de los extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro. sin embargo. y de Ser Piero. Italia era entonces un mosaico de ciudades-estados como Florencia. muy reducido. que permitía una mayor blandura en el trazo y una más profunda penetración en la tela. creó un escudo de Medusa con dragones que aterrorizó a su padre cuando se topó con él por sorpresa. donde un dinámico e inspirado ángel pintado por Leonardo contrasta con la brusquedad del Bautista hecho por Verrocchio. pequeñas repúblicas como Venecia y feudos bajo el poder de los príncipes o el papa. Giorgio Vasari. inspirados en una profunda observación del entorno natural en el que creció. su primer biógrafo. dibujando animales mitológicos de su propia invención. de finos y bellos rasgos. el Sacro Imperio Romano Germánico. es muy probable que fuera el modelo para la cabeza de San Miguel en el cuadro de Verrocchio Tobías y el ángel. sus grandes obras de este período son un San Jerónimo y el gran panel La adoración de los Magos (ambos inconclusos). Juventud y descubrimientos técnicos Era un joven agraciado y vigoroso que había heredado la fuerza física de la estirpe de su padre.Grandes Científicos Leonardo da Vinci. El Imperio romano de Oriente cayó en 1453 ante los turcos y apenas sobrevivía aún. su gran imaginación creativa y la temprana maestría de su pincel. El joven discípulo utilizaba allí por vez primera una novedosa técnica recién llegada de los Países Bajos: la pintura al óleo. no tardaron en superar a las de su maestro: en el Bautismo de Cristo. relata cómo el genio de Leonardo. por ejemplo. en cuya corte se quedaría diecisiete años como «pictor et 192 . hijo natural de una campesina. era una época violenta en la que. siendo aún un niño. sólo tuvo hijos (once en total. con los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos últimos matrimonios. Su enorme curiosidad se manifestó tempranamente. Primer período milanés En 1482 se presentó ante el poderoso Ludovico Sforza.

Pero poco después el condottiero cayó en desgracia: sus capitanes se sublevaron. Aunque su ocupación principal era la de ingeniero militar. quizá. al tiempo que se ejercitaba en la ejecución y fabricación de laúdes. Leonardo comenzó sus apuntes para la formulación de una ciencia de la pintura. además de la pintura y la escultura. Fue su período de pleno desarrollo. El regreso a Florencia A finales de 1499 los franceses entraron en Milán. Leonardo abandonó la ciudad acompañado de Pacioli y tras una breve estancia en casa de su admiradora la marquesa Isabel de Este. atacarían las embarcaciones por debajo. la Signoria contrató a Leonardo como ingeniero militar. recorrió los terrenos del norte. De nuevo en Milán: de 1506 a 1513 El interés de Leonardo por los estudios científicos era cada vez más intenso: asistía a disecciones de cadáveres. hasta grandes piezas de artillería con proyectiles de acción retardada y barcos con doble pared para resistir las embestidas. que por entonces se encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el río Arno por detrás de la ciudad enemiga cercándola y contemplando la construcción de un canal como vía navegable que comunicase Florencia con el mar: el proyecto sólo se concretó en los extraordinarios mapas de su autor. llegó a Venecia. Ludovico el Moro perdió el poder. hombre ambicioso y temido. nuevamente como ingeniero militar. sobre los que confeccionaba dibujos para describir la estructura y funcionamiento del cuerpo humano. con un tubo de cuero para tomar aire destinado a unos soldados que. que ya dominaban la costa dálmata y amenazaban con tomar el Friuli.ingenierius ducalis». siguiendo las bases matemáticas fijadas por León Bautista Alberti y Piero della Francesca. desde una suerte de submarino individual. Acosada por los turcos. César Borgia. tras veinte años de ausencia. las excesivas (para los venecianos) pretensiones de Leonardo en el reparto del botín. En abril de 1500 Da Vinci entró en Florencia. hasta los siglos XIX o XX. en muchos casos. En 1503 Leonardo volvió a la ciudad. la arquitectura. calculando distancias precisas. descrito por el propio Maquiavelo como «modelo insuperable» de intrigador político y déspota. En pocas semanas proyectó una cantidad de artefactos cuya realización concreta no se haría sino. la mecánica (con innovadores sistemas de palancas para multiplicar la fuerza humana). armados con taladro. en Mantua. dominaba Florencia y se preparaba para lanzarse a la conquista de nuevos territorios. la falta de tiempo y. hicieron que las geniales ideas no pasaran de bocetos. su padre fue envenenado y él mismo cayó gravemente enfermo. sus proyectos (casi todos irrealizados) abarcaron la hidráulica. proyectando puentes y nuevas armas de artillería. trazando mapas. Al mismo tiempo hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba 193 . hijo del papa Alejandro VI. Los costes desorbitados. Leonardo.

estudió antiguos monumentos romanos. muerto su protector Giulano de Médicis. Ultimos años: Roma y Francia El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio. Leonardo dejó Italia definitivamente. en la convicción de que también el hombre podría volar si llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este período se han visto como claros precursores del moderno helicóptero). trabó una estrecha amistad con el gran arquitecto Bramante. hermano del nuevo papa León X. para pasar los tres últimos años de su vida en el palacio de Cloux como «primer pintor. lo que supuso para Leonardo su segunda frustración como escultor. hasta la muerte de éste en 1514.escribir un tratado). junto a Melzi y Salai marchó a Roma. además. En 1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán. quien pretendía retomar para sí el monumental proyecto del «gran caballo». En el Vaticano vivió una etapa de tranquilidad. pero tampoco esta vez el monumento ecuestre pasó de los bocetos. con un sueldo digno y sin grandes obligaciones: dibujó mapas. Leonardo da Vinci. un genio de las máquinas 194 . proyectó una gran residencia para los Médicis en Florencia y. Pero en 1516. arquitecto y mecánico del rey». convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San Nazaro Magiore. donde se albergó en el belvedere de Giulano de Médicis.

matemáticas. el directo (en línea recta). geología. que concebía como finito. meteorología. pasando por distintas localidades. 195 . En Florencia. Estudió el movimiento de los proyectiles. Se ocupó del estudio de la mecánica ("paraíso de la ciencia matemática") y realizó investigaciones sobre óptica. el choque y la percusión. Hidráulica Se lo considera uno de los inventores de la hidráulica. Una constante en su obra fueron los engranajes. hasta tal punto que. Esta considerado como uno de los creadores de la hidrodinámica y como el precursor de la ciencia moderna. tratando nociones tales como la fuerza y el tiempo. de haberse publicado. y el peso.Los descubrimientos de Leonardo no se difundieron en su época debido a que suponían un avance tan grande que los hacía indescifrables. circular y helicoidal. anatomía y naturalismo (ahora biología). que consideraba infinitos. desde la relojería hasta las modernas cajas de cambios. la caída libre de los cuerpos. está basada en los estudios de Leonardo sobre las ruedas dentadas. de acuerdo al método geométrico que requería su tratamiento. Puede decirse que toda la mecánica actual. hubieran revolucionado la ciencia del siglo XVI. astronomía. curvo. Sus investigaciones científicas anticiparon muchos de los avances de la ciencia moderna. Mecánica Aceptó las nociones fundamentales de la estática aristotélica y el concepto medieval del "ímpetu". uniese la ciudad con el mar Tirreno. Dividió el movimiento en cuatro tipos. proyectó la construcción de un canal navegable que.

Como matemático e ingeniero. los océanos de la Tierra no son el origen principal del brillo terrestre. a su vez.En los tres años de su residencia en Roma estudió el saneamiento de los pantanos. Probablemente descubrió el hidrómetro. y las nubes reflejan la mayor 196 . creía Leonardo. La Tierra brilla por que refleja la luz solar. sugiriendo un origen común. "ya que estaba cubierta con mucho agua". Su programa para la canalización de los ríos todavía posee valor práctico. aunque nunca llegó a asumir completamente el heliocentrismo. porque revelaría la mayor humedad del aire al aumentar el peso del algodón de la balanza. En uno de sus trabajos sobre Astronomía resolvió el enigma del brillo de la Tierra (imagen fantasmal de la luna llena que se forma entre los cuernos de la creciente) que se puede observar cuando hay luna creciente en el horizonte al ponerse el sol. o similitud de diferentes partes del hombre con la de otros animales. La segunda. no de agua. El mismo serviría. También estudió el mundo vegetal. La Luna era un excelente reflector de la luz". "es debido a la luz del sol rebotando en los océanos de la Tierra y. "para ver cuándo se descompone el tiempo". observando la disposición regular de las hojas en las ramas y la circulación de la linfa. En cuanto al "resplandor fantasmal". estaba vivamente interesado en la luz y la sombra. según lo dice el propio Leonardo. Para Leonardo. explicó. que él denominaba higroscopio. la Luna no tiene océanos. era aficionado a la geometría. Descubrió que el número de anillos del tronco permite determinar la edad del árbol. Esto lo dedujo al observar que la disposición de las articulaciones y de los huesos de las patas de los caballos era similar a la de las piernas humanas. fue precursor del modelo de Copérnico (aceptaba la inmovilidad del Sol). el brillo de la Tierra era un enigma atractivo. Los "mares lunares" están hechos de antigua lava endurecida. Él estaba equivocado sobre dos cosas pero comprendió lo básico bastante bien: La primera. Ciencias del espacio Como astrónomo. golpeando la Luna". Biología Los estudios anatómicos de Leonardo le permitieron llegar a importantes conclusiones e introducir el concepto de homología. Como artista.

Esto demuestra. produciendo el resplandor ceniciento. la respuesta puede parecer obvia. Esto le condujo. una vez más. veinticuatro años después de la muerte de Leonardo). Óptica Estudió los fenómenos de la luz y logró comprender por qué la luz proyecta las imágenes invertidas en la "cámara oscura". Nadie había estado nunca en la Luna y mirado "hacia" la Tierra. Hay todavía una fuente de luz en el cielo: la Tierra.. a desarrollar un sistema para determinar el centro de gravedad de una pirámide y las transformaciones recíprocas en los sólidos. Cuando el sol se pone en la Luna. Nuestro propio planeta ilumina la noche lunar con un brillo 50 veces mayor que una luna llena. ésta se oscurece . Casi cuatro siglos después. Visualizar esto en los años 1500 requería una imaginación desbordante. En 2005. por ej.pero no completamente. después del Apolo. la genialidad de Leonardo. Isaac newton Biografia Isaac Newton nació en las primeras horas del 25 de diciembre de 1642 (4 de 197 . El primero en proponer el uso de lentes de contacto para corregir los defectos de la visión fue Leonardo da Vinci en 1508. se fabricaban en Alemania las primeras lentes de contacto con un cristal que recubría toda la superficie del ojo. Su tratado De ludo geométrico también quedó inconcluso. Matemáticas En el campo de las matemáticas se ocupó de problemas susceptibles de admitir una solución geométrica obtenida por métodos empíricos.parte. La mayoría de la gente ni siquiera sabía que la Tierra orbitaba el Sol. También investigó los efectos de las lentes esféricas y emitió una teoría de la visión (asignando equivocadamente ésta al cristalino en vez de a la retina). (La teoría heliocéntrica de Copérnico no fue publicada hasta 1543.

Su padre. se cambió en feroz espíritu competitivo que le llevó a ser el primero de la clase. su madre. meditativo». que ejercitó en la construcción de diversos mecanismos (el más citado es un reloj de agua) y juguetes (las famosas cometas. lo que tuvo como consecuencia un hecho que influiría decisivamente en el desarrollo del carácter de Newton: Hannah se trasladó a la casa de su nuevo marido y su hijo quedó en Woolsthorpe al cuidado de su abuela materna. procedente de una familia en otro tiempo acomodada. Hay testimonios de que en los años que allí pasó alojado en la casa del farmacéutico. Del odio que ello le hizo concebir a Newton contra su madre y el reverendo Smith da buena cuenta el que en una lista de «pecados» de los que se autoinculpó a los diecinueve años. el joven Isaac no se mostró en absoluto interesado por asumir sus responsabilidades como terrateniente.enero de 1643. su madre. se atribuyó una relación sentimental adolescente con Newton. También se produjo un importante cambio en su carácter: su inicial indiferencia por los estudios. además de tres hermanastros para Isaac. La manzana de Newton Un año más tarde Newton fue inscrito en la King's School de la cercana población de Grantham. Cumplidos los dieciséis años. Cuando el pequeño Isaac acababa de cumplir tres años. quien. acababa de fallecer a comienzos de octubre. su madre contrajo de nuevo matrimonio con el reverendo Barnabas Smith. Cuando Newton contaba doce años. accedió a que regresara a la escuela para preparar su 198 . surgida probablemente de la timidez y el retraimiento. silencioso. rector de North Witham. para que las niñas jugaran con sus muñecas. tras haber contraído matrimonio en abril del mismo año con Hannah Ayscough. en el Lincolnshire. en la pequeña aldea de Woolsthorpe. según el calendario gregoriano). aconsejada por el maestro de Newton y por su propio hermano. otra vez viuda. a cuya cola ataba linternas que por las noches asustaban a sus convecinos). que prefirió construir utensilios. Sin embargo. según el testimonio de una de sus compañeras femeninas infantiles. dos niñas y un niño. a raíz de una pelea con un compañero de la que salió vencedor. Fue un muchacho «sobrio. regresó a Woolsthorpe. cuando ya era una anciana. trayendo consigo una sustanciosa herencia que le había legado su segundo marido (y de la que Newton se beneficiaría a la muerte de ella en 1679). un pequeño terrateniente. se desarrolló su poco usual habilidad mecánica. a compartir las diversiones de los demás muchachos. su madre lo hizo regresar a casa para que empezara a ocuparse de los asuntos de la heredad. el número trece fuera el haber deseado incendiarles su casa con ellos dentro. la única que se le conoce con una mujer.

Durante sus primeros años de docencia no parece que las actividades lectivas supusieran ninguna carga para él. Retirado con su familia durante los años 1665-1666. El procedimiento seguido por Newton para establecer la fórmula binomial tuvo la virtud de hacerle ver el interés de las series infinitas para el cálculo infinitesimal. Desde finales de 1664 trabajó intensamente en diferentes problemas matemáticos. Leyes del movimiento de newton 199 . la formalización del método de fluxiones y la generalización del teorema del binomio. reconociendo debidamente la prioridad de este último en el hallazgo. y Newton recibió presiones encaminadas a que permitiera su publicación. ya que tanto la complejidad del tema como el sistema docente tutorial favorecían el absentismo a las clases. guardaría silencio durante mucho tiempo sobre sus descubrimientos ante el temor a las críticas y el robo de sus ideas. Por esa época. su desarrollo de las bases de la mecánica clásica. el teorema lo publicó por vez primera en 1685 John Wallis. Newton redactó sus primeras exposiciones sistemáticas del cálculo infinitesimal que no se publicaron hasta más tarde. Barrow conoció e hizo conocer el texto. conoció un período muy intenso de descubrimientos. y desarrolló un método propio denominado cálculo de fluxiones. legitimando así la intervención de los procesos infinitos en los razonamientos matemáticos y poniendo fin al rechazo tradicional de los mismos impuesto por la matemática griega. aunque no dio noticia escrita del descubrimiento hasta 1676. La óptica A su regreso definitivo a Cambridge. el más importante de los matemáticos ingleses inmediatamente anteriores a Newton. entero o fraccionario. En 1667 reanudó sus estudios en Cambridge. La primera exposición sustancial de su método de análisis matemático por medio de series infinitas la escribió Newton en 1669. Abordó entonces el teorema del binomio. secretario de la Royal Society. a partir de los trabajos de John Wallis. poniendo además de manifiesto la naturaleza física de los colores. entre los que destaca la ley del inverso del cuadrado de la gravitación. en dos cartas dirigidas a Henry Oldenburg.ingreso en la universidad. Newton fue elegido miembro becario del Trinity College en octubre de 1667. y dos años más tarde sucedió a Barrow en su cátedra. pese a lo cual (o quizá precisamente por ello) el escrito no llegó a imprimirse hasta 1711. En 1664 o 1665 había hallado la famosa fórmula para el desarrollo de la potencia de un binomio con un exponente cualquiera. Sin embargo. Poco después regresó a la granja familiar a causa de una epidemia de peste bubónica.

Cuando se aplica una fuerza a un objeto. Si el cuerpo nº 1 actúa con una fuerza F sobre el cuerpo nº 2. cuando se sobreentiende una dirección única. se acelera. No obstante." El teorema del binomio de newton El teorema del binomio. un objeto ("cuerpo") en descanso seguirá en descanso. 2. lo continuará haciendo indefinidamente. en respuesta a una petición de Leibniz que quería conocer los trabajos de matemáticos ingleses sobre series infinitas. descubierto hacia 1664-1665. se puede usar la forma simple. En términos más explícitos: "Las fuerzas son siempre producidas en pares. con direcciones opuestas y magnitudes iguales. los dos son denominados habitualmente por las letras F y m. la medición de la cantidad de materia puesta en movimiento. 1. fechada el 13 de junio de 1676. secretario de la Royal Society que favorecía los intercambios de correspondencia entre los científicos de su época. fue comunicado por primera vez en dos cartas dirigidas en 1676 a Henry Oldenburg (hacia 16151677). aunque esta convención no se sigue siempre en este sitio web). m y a. En la primera carta. 200 . causa del movimiento. "La ley de la reacción" enunciada algunas veces como que "para cada acción existe una reacción igual y opuesta". Newton planteó que todos los movimientos se atienen a tres leyes principales formuladas en términos matemáticos y que implican conceptos que es necesario primero definir con rigor. En ausencia de fuerzas. La aceleración es en dirección a la fuerza y proporcional a su intensidad y es inversamente proporcional a la masa que se mueve: a = k(F/m) donde k es algún número. Un concepto es la fuerza. dependiendo de las unidades en que se midan F. tanto el movimiento orbital como la ley del movimiento de los cohetes se basan en ellas. k = 1 dando a = F/m ó en la forma en que se encuentra normalmente en los libros de texto F=ma De forma más precisa.Las leyes del movimiento tienen un interés especial aquí. "Las tres leyes del movimiento de Newton" se enuncian abajo en palabras modernas: como hemos visto todas necesitan un poco de explicación. Con unidades correctas (volveremos a ver esto). y un cuerpo moviéndose a una velocidad constante en línea recta. 3. otro es la masa. entonces el cuerpo nº 2 actúa sobre el cuerpo nº 1 con una fuerza de igual intensidad y dirección opuesta. deberíamos escribir F = ma siendo F y a vectores en la misma dirección (indicados aquí en negrita.

Subrayemos el uso sistemático de dos ejes y el empleo de coordenadas negativas. en una carta fechada el 17 de agosto del mismo año. Aplicando los métodos de Wallis de interpolación y extrapolación a nuevos problemas. publicado como apéndice a su Opticks en 1704 y titulado Enumeratio linearum tertii ordinis. Para cada una de estas especies. traza cuidadosamente un diagrama y el conjunto de estos diagramas presenta todas las formas posibles (salvo las que son degeneradas) de las curvas de tercer grado. etc. las series. Newton utilizó los conceptos de exponentes generalizados mediante los cuales una expresión polinómica se transformaba en una serie infinita. Newton le responde también con una carta fechada el 24 de octubre en la que explica en detalle cómo ha descubierto la serie binómica. que está en posesión de un método general que le permite obtener diferentes resultados sobre las cuadraturas. sin embargo. atribuyendo a Newton este descubrimiento. Otras aportación de newton Newton realizó también contribuciones a otros temas matemáticos. entre los que podemos mencionar una clasificación de las curvas de tercer grado y trabajos sobre la teoría de las ecuaciones. Newton expone su visión de la teoría de 201 . En una obra publicada por primera vez en 1707. bien directamente. divide las cúbicas en catorce genera que comprenden setenta y dos especies. Interesado por las investigaciones de Leibniz. de las que faltan seis.. El análisis mediante las series infinitas parecía posible. y de la que aparecen muchas ediciones en el siglo XVIII. porque ahora resultaban ser una forma equivalente para expresar las funciones que representaban. Newton no publicó nunca el teorema del binomio.Newton presenta el enunciado de su teorema y un ejemplo que lo ilustra. Leibniz responde. Así estuvo en condiciones de demostrar que un buen número de series ya existentes eran casos particulares. y menciona ejemplos conocidos en los cuales se aplica el teorema. El descubrimiento de la generalización de la serie binómica es un resultado importante de por sí. y menciona algunos de sus resultados. En un pequeño tratado. Newton. bien por diferenciación o integración. que compuso esta obra en 1676. Lo hizo Wallis por primera vez en 1685 en su Algebra. a partir de este descubrimiento Newton tuvo la intuición de que se podía operar con series infinitas de la misma manera que con expresiones polinómicas finitas.

un teorema que generaliza la regla de los signos de Descartes para la determinación del número de raíces imaginarias de un polinomio.West Orange. compraba sin cesar revistas científicas. En los años siguientes. Ayudado por su madre. sin olvidar su pasión por los experimentos. y el descubrimiento de la relación entre las raíces y el discriminante de una ecuación. 1931) Inventor norteamericano. de Richard Green Parker. Edison peregrinó por diversas ciudades desempeñando labores de telegrafista en varias compañías y dedicando su tiempo libre a investigar. Su primera iniciativa fue vender periódicos y chucherías en el tren que hacía el trayecto de Port Huron a Detroit. Evidentemente nos referimos a su Aritmetica universalis. mencionemos las «identidades de Newton» para la suma de las potencias de las raíces de una ecuación polinómica. compuesta al parecer entre 1673 y 1683 a partir de los cursos que impartió en Cambridge. A los doce años. un teorema sobre la cota superior de las raíces de una ecuación polinómica. el más genial de la era moderna. El milagro se produjo tras la lectura de un libro que ella le proporcionó titulado Escuela de Filosofía Natural. 1847 . que era alérgico a la monotonía de la escuela. Edison convenció a los telegrafistas de la línea férrea para que expusieran en los tablones de anuncios de las estaciones breves titulares sobre el desarrollo de la contienda. sin olvidar añadir al pie que los detalles completos aparecían en los periódicos. libros y aparatos. tras conseguir a bajo precio y de segunda mano una prensa de imprimir. instaló en el sótano de su casa un pequeño laboratorio convencido de que iba a ser inventor. porque Newton parece pensar que es muy útil construir geométricamente la ecuación con el fin de estimar más fácilmente las raíces buscadas. consideró que estaba en su mano ganar dinero contante y sonante materializando alguna de sus buenas ocurrencias. Thomas Alva Edison Biografia (Milan. Entre las contribuciones importantes de esta obra. Al mismo tiempo. tal fue su fascinación que quiso realizar por sí mismo todos los experimentos y comprobar todas las teorías que contenía. el Weekly Herald. Había estallado la Guerra de Secesión y los viajeros estaban ávidos de noticias. Los políticos 202 . En Boston construyó un aparato para registrar automáticamente los votos y lo ofreció al Congreso. y llegó a convertir el vagón de equipajes del convoy en un nuevo laboratorio.las ecuaciones. Su madre logró despertar la inteligencia del joven Edison. comenzó a publicar un periódico por su cuenta. esos periódicos los vendía el propio Edison en el tren y no hay que decir que se los quitaban de las manos. Aprendió a telegrafiar y. Señalemos que las cuestiones geométricas ocupan una parte importante en esta obra.

e hizo construir allí un nuevo taller y una residencia para su familia. cerca de Nueva York. Pero no todo eran triunfos. los combinaba de modo diferente y seguía intentándolo. Acto seguido formó una sociedad y se puso a trabajar. La idea ya era antigua e incluso se había logrado registrar sonidos en un cilindro de cera. se hallaba sin embargo totalmente concentrado en un nuevo aparato para grabar vibraciones sonoras. A los veintinueve años cuando compró un extenso terreno en la aldea de Menlo Park. En primer lugar. pero nadie había logrado reproducirlos. Para él no contaban las horas. Todos pudieron escuchar una canción que había entonado uno de los empleados minutos antes. experimentaba con nuevos materiales. práctico y rentable. Cualquier detalle en el curso de sus investigaciones le hacía vislumbrar la posibilidad de un nuevo hallazgo. a trabajos productivos. Después de probar diversos 203 . El problema consistía en encontrar un material capaz de mantener una bombilla encendida largo tiempo. sus inventos ya le reportaban beneficios y Edison pudo comprar maquinaria y contratar obreros. Su nombre empezó a ser conocido. abandonó su carrera de telegrafista. En abril de 1879. colaboró en la construcción de la primera máquina de escribir y dio aplicación práctica al teléfono mediante la adopción del micrófono de carbón. Edison tomó dos decisiones.consideraron que el invento era tan perfecto que no cabía otra posibilidad que rechazarlo. Su principal virtud era sin duda su extraordinaria capacidad de trabajo. Perfeccionó el telégrafo automático. En segundo lugar. se juró que jamás inventaría nada que no fuera. Edison se había casado a finales de 1871 con Mary Stilwell. Era muy exigente con su personal y le gustaba que trabajase a destajo. Muchas de las investigaciones iniciadas por Edison terminaron en sonoros fracasos. entregó a uno de sus técnicos un extraño boceto. Ese mismo día. Edison conectó la máquina. La competencia era muy enconada y varios laboratorios habían patentado ya sus lámparas. además de novedoso. Edison trabajó día y noche en el proyecto y al fin. Edison abordó las investigaciones sobre la luz eléctrica. Al fin. en agosto de 1877. Ahora debía sostener un hogar y se dedicó. Recién instalado en Menlo Park. con lo que los resultados eran frecuentemente positivos. inventó un aparato para transmitir las oscilaciones de los valores bursátiles. con más ahínco si cabe. Cuando las pruebas no eran satisfactorias. Edison acababa de culminar uno de sus grandes inventos: el fonógrafo. la nota más destacada de la boda fue el trabajo que le costó al padrino hacer que el novio se pusiera unos guantes blancos para la ceremonia. diciéndole que construyese aquel artilugio sin pérdida de tiempo.

el agradecido padre de la criatura J. Luego. Su fama se propagó por el mundo a medida que la luz eléctrica se imponía. Todos sus inventos eran patentados y explotados de inmediato. el trabajo parecía mantenerlo en forma. Entretanto. Edison encontró por fin el filamento de bambú carbonizado. Tenía ochenta y cuatro años cuando un ataque de uremia abatió sus últimas energías. A los dieciséis años obtuvo su primer puesto como telegrafista en Port Huron cuando J. haciendo gala de su pragmatismo. y no tardaban en producir beneficios sustanciosos. Inmediatamente adquirió grandes cantidades de bambú y. visitó Europa y fue recibido en olor de multitudes.elementos con resultados negativos. En poco tiempo consiguió que cada bombilla le costase treinta y siete centavos: el negocio empezó a marchar como la seda. Era irregular en sus comidas. que tras la muerte de su primera esposa había vuelto a casarse. Su única preocupación en materia de salud consistía en no ganar peso. Su popularidad llegó a ser inmensa. U. De regreso en los Estados Unidos creó diversas empresas y continuó trabajando con el mismo ardor de siempre. en el Empalme de Stratford a ciento sesenta kilómetros de la frontera con Canadá. A finales de 1863. empezó a vender sus lámparas a cuarenta centavos. En 1927 fue nombrado miembro de la National Academy of Sciences y al año siguiente el presidente Coolidge le hizo entrega de una medalla de oro que para él había hecho grabar el Congreso. Mackenzie le deja el puesto al unirse este al Cuerpo Militar de Telegrafistas. Pero lo más sorprendente de su carácter era su invulnerabilidad ante el desaliento. para demostrar que el alumbrado eléctrico era más económico que el de gas. El inicio de su carrera Tras salvar de morir a un niño en las vías del tren en Port Huron. U. 204 . aunque a él fabricarlas le costase más de un dólar. Incluso el Congreso se ocupó de su fama. calculándose que Edison había añadido un promedio de treinta millones de dólares al año a la riqueza nacional por un periodo de medio siglo. Nunca antes se había tasado con tal exactitud algo tan intangible como el genio. Mackenzie solicitó empleo como telegrafista de ferrocarril del Grand Truck. Edison. se acostaba tarde y se levantaba temprano. No duró mucho en este empleo porque no transmitió las señales para detener un tren de carga que. Edison con el apoyo de J. Ningún contratiempo era capaz de desanimarlo. U. sus conciudadanos le señalaron en las encuestas como el hombre más grande de Estados Unidos. nunca hizo deporte de ninguna clase y a menudo mascaba tabaco. instaló un taller para fabricar él mismo las bombillas. su objetivo era hacer que aumentase la demanda para poder producirlas en grandes cantidades y rebajar los costes por unidad. En los años veinte. Mackenzie (telegrafista de la estación) le enseñó telegrafía.

se marchó a Indianápolis. Los tipos de dispositivos de iluminación eléctrica utilizados con mayor frecuencia son las lámparas incandescentes. Tecnología de la iluminación eléctrica Si una corriente eléctrica pasa a través de cualquier conductor que no sea perfecto. Por cuanto cualquier cuerpo caliente despedirá una cierta cantidad de luz a temperaturas superiores a los 525 ºC. obteniéndose la fuente luminosa más eficaz a la temperatura máxima del filamento. La Western Union Pasó un tiempo en Fort Wayne. Edison encontró empleo en el ferrocarril sureño de Lake Shore & Michigan. se gasta una determinada cantidad de energía que en el conductor aparece en forma de calor. La lámpara incandescente está formada por un filamento de material de elevada temperatura de fusión dentro de una ampolla de vidrio.como consecuencia. y después de dos meses sin conseguir empleo. donde una vez más. Huyó a Sarnia. aunque las modernas se fabrican con filamentos de delgado hilo de volframio o tungsteno. en cuyo interior se ha hecho el vacío. un conductor que se calienta por encima de dicha temperatura mediante una corriente eléctrica actuará como fuente luminosa. Se le mandó despachar un mensaje importante. en Adrian. donde por su habilidad lo graduaron de operador de segunda a operador de primera clase. a finales de 1868 vuelve a conseguir empleo en la Western Union Boston. obtuvo empleo en la Western Union. incluso un intento por ir de operador telegráfico a Brasil. el cual era el superintendente. o bien llena de un gas inerte. En las primeras lámparas incandescentes se utilizaban filamentos de carbono. A principios de 1864. Después de andar errante por varias ciudades y de un empleo a otro. en la frontera canadiense y tomó la barcaza hacia Port Huron. El filamento debe estar en una atmósfera al vacío o 205 . empresa con la que vincularía estrechamente su destino. cuya temperatura de fusión es de 3. en donde fue despedido por desobedecer órdenes. las lámparas fluorescentes y los distintos modelos de lámparas de arco y de vapor por descarga eléctrica. estuvo a punto de tener una colisión de frente. iluminación mediante cualquiera de los numerosos dispositivos que convierten la energía eléctrica en luz.410 ºC. cien kilómetros al sur de Detroit. y lo hizo sin hacer caso de las protestas del hombre que se encontraba transmitiendo al otro lado de la línea. donde obtuvo empleo en la Western Union. En febrero de 1865. detalle que Edison desconocía. Edison se trasladó a Cincinnati. Iluminación eléctrica. Deben utilizarse filamentos con elevadas temperaturas de fusión porque la proporción entre la energía luminosa y la energía térmica generada por el filamento aumenta a medida que se incrementa la temperatura.

pero esta radiación se convierte en luz visible al excitar al fósforo. Un tubo fluorescente que consume 40 vatios de energía genera tanta luz como una bombilla incandescente de 150 vatios. Tipos de lámparas Las lámparas de descarga eléctrica dependen de la ionización y de la descarga eléctrica resultante en vapores o gases a bajas presiones en caso de ser atravesados por una corriente eléctrica (véase Ion). que generan una intensa luz azul verdosa y que se utilizan para fotografía e iluminación de carreteras. lo que prolonga la vida útil de la lámpara. Un avance en el campo de la iluminación eléctrica es el uso de la luminiscencia. La mayoría de las lámparas incandescentes modernas se rellenan con una mezcla de gases de argón y halógenos. revestido en su interior con un material fluorescente conocido como fósforo. 206 . En este caso. La mayor parte de la radiación del arco es luz ultravioleta invisible. Los ejemplos más representativos de este tipo de dispositivos son las lámparas de arco rellenas con vapor de mercurio. El uso de gas inerte en lugar de vacío en las lámparas incandescentes tiene como ventaja una evaporación más lenta del filamento.inerte. La sustitución de las ampollas de vidrio por compactos tubos de vidrio de cuarzo fundido han permitido cambios radicales en el diseño de las lámparas incandescentes. Si se elige el tipo de fósforo adecuado. Las lámparas fluorescentes se destacan por una serie de importantes ventajas. como el vidrio. revestida en su interior con una fina película de óxido de estaño. Se trata de una lámpara de vapor de mercurio de baja presión contenida en un tubo de vidrio. La radiación en el arco de la lámpara de vapor hace que el fósforo se torne fluorescente. La lámpara fluorescente es otro tipo de dispositivo de descarga eléctrica empleado para aplicaciones generales de iluminación. En las más modernas lámparas de descarga eléctrica se añaden otros metales al mercurio y al fósforo de los tubos o ampollas para mejorar el color y la eficacia. como por ejemplo el plástico. ya que de lo contrario al calentarse reaccionaría químicamente con el entorno circundante. Debido a su potencia luminosa. y las lámparas de neón. han permitido fabricar lámparas de vapor de sodio de alta presión con una potencia luminosa sin precedentes. conocida como iluminación de paneles. una de las cuales es una sustancia translúcida. o bien con una pequeña cantidad de nitrógeno o de criptón. utilizadas para carteles decorativos y escaparates. la calidad de luz que generan estos dispositivos puede llegar a semejarse a la luz solar. Esta capa se intercala entre dos placas conductoras. tienen una alta eficacia. Los tubos de cerámica translúcidos. similares al vidrio. las lámparas fluorescentes producen menos calor que las incandescentes para generar una luminosidad semejante. Además. las partículas de fósforo se hallan suspendidas en una fina capa de material aislante.

en donde el padre se estableció. como por ejemplo iluminar relojes y sintonizadores de radio. para destacar los peldaños o los pasamanos de las escaleras. Sin embargo.Como los dos conductores actúan como electrodos. las dificultades económicas hicieron que la familia (aumentada desde 1881. Las lámparas utilizadas para fotografía de alta velocidad generan un único destello (flash) de luz de alta intensidad que dura escasas centésimas de segundo al encender una carga una hoja de aluminio plegada o un fino hilo de aluminio dentro de una ampolla de vidrio rellena de oxígeno.000 horas que dura una lámpara incandescente normal. La lámina se enciende por el calor de un pequeño filamento de la ampolla. una lámpara incandescente que funciona a una temperatura superior a la normal para obtener una mayor salida de luz. Un ejemplo de ellas es la utilizada en fotografía. como la fotografía y el alumbrado de alta intensidad. por el contrario. Albert Einstein Albert Einstein nació en la ciudad bávara de Ulm el 14 de marzo de 1879. En 1894. junto con su hermano Jakob. Maya) se trasladara a Milán. Los paneles luminiscentes se utilizan para una amplia variedad de objetos. como comerciante en las novedades electrotécnicas de la época. frente a las 750 a 1. El propio Einstein atribuyó a esa lentitud el hecho de haber sido la única persona que elaborase una teoría como la de la relatividad: «un adulto normal no se inquieta por los problemas que plantean el espacio y el tiempo. Su vida útil está limitada a 2 ó 3 horas. he tenido un desarrollo tan lento que no he empezado a plantearme preguntas sobre el espacio y el tiempo hasta que he sido mayor». que tuvo un desarrollo intelectual lento. el uso de la iluminación de paneles está limitado por el hecho de que las necesidades de corriente para grandes instalaciones es excesivo. y para generar paredes luminosas. estas lámparas han sido diseñadas de manera que puedan actuar como reflectores al ser revestidas de una capa de aluminio especular (véase Óptica). por el nacimiento de una hija. judíos ambos. Entre los fotógrafos cada vez es más popular la lámpara estroboscópica de descarga de gas a alta velocidad conocida como flash electrónico. Se han desarrollado una serie de diferentes tipos de lámparas eléctricas para fines especiales. Al siguiente año se trasladaron a Munich. El pequeño Albert fue un niño quieto y ensimismado. Fue el hijo primogénito de Hermann Einstein y de Pauline Koch. pues considera que todo lo que hay que saber al respecto lo conoce ya desde su primera infancia. 207 . Yo. al ser atravesado el fósforo por una corriente alterna hace que se ilumine. Por lo general. cuyas familias procedían de Suabia.

inició sus estudios superiores en la Eidgenossische Technische Hochschule de Zurich. y el segundo daba una interpretación del efecto fotoeléctrico basada en la hipótesis de que la luz está integrada por cuantos individuales. su actividad se centró. y los cuatro restantes acabaron por imponer un cambio radical en la imagen que la ciencia ofrece del universo. Einstein se manifestó por entonces abiertamente antibelicista. contrajo matrimonio con Mileva Maric. antigua compañera de estudios en Zurich. el primero proporcionaba una explicación teórica. En 1919 se divorciaron. reuniéndose con sus padres al año siguiente. forzándole a 208 . En el plano científico. basada en el postulado de que la gravedad no es una fuerza sino un campo creado por la presencia de una masa en el continuum espacio-tiempo. pasando luego a Praga y regresando de nuevo a Zurich en 1912 para ser profesor del Politécnico. publicó cinco trabajos en los Annalen der Physik: el primero de ellos le valió el grado de doctor por la Universidad de Zurich. nacidos respectivamente en 1904 y en 1910. entre 1914 y 1916. el Premio Nobel de Física. que se le concedió en 1921 lo fue exclusivamente «por sus trabajos sobre el movimiento browniano y su interpretación del efecto fotoeléctrico». Contra el sentir generalizado de la comunidad académica berlinesa. De éstos. y Einstein se casó de nuevo con su prima Elsa. En 1909. inició su carrera de docente universitario en Zurich. en términos estadísticos. del movimiento browniano. por entonces de vacaciones en Suiza y que ya no volvió a reunirse con él. al fotografiarse el eclipse solar del 29 de mayo. En el otoño de 1896. más tarde denominados fotones. Durante 1905. con quien tuvo dos hijos: Hans Albert y Eduard. El esfuerzo de Einstein lo situó inmediatamente entre los más eminentes de los físicos europeos. donde c es la velocidad de la luz. En 1914 pasó a Berlín como miembro de la Academia de Ciencias prusiana. influido en sus actitudes por las doctrinas pacifistas de Romain Rolland. en donde había realizado sus estudios. El estallido de la Primera Guerra Mundial le forzó a separarse de su familia. The Times lo presentó como el nuevo Newton y su fama internacional creció. que se supone constante. El 23 de junio de 1902. En 1903. La confirmación de sus previsiones llegó en 1919. quien posteriormente generalizó el formalismo cuatridimensional introducido por las teorías de su antiguo alumno. en donde fue alumno del matemático Hermann Minkowski.Einstein permaneció en Munich para terminar sus estudios secundarios. empezó a prestar sus servicios en la Oficina Confederal de la Propiedad Intelectual de Berna. pero el reconocimiento público del verdadero alcance de sus teorías tardó en llegar. los dos trabajos restantes sentaban las bases de la teoría restringida de la relatividad. en términos de la famosa ecuación E = mc². en el perfeccionamiento de la teoría general de la relatividad. estableciendo la equivalencia entre la energía E de una cierta cantidad de materia y su masa m. donde trabajó hasta 1909.

supuestamente. empeñado en avanzar hacia el que. su soledad se vio agravada por la necesidad de renunciar a la ciudadanía alemana y trasladarse a Estados Unidos. formuladas en nombre de una singular amalgama de ciencia. y convencido de la posibilidad de que los alemanes estuvieran en condiciones de fabricar una bomba atómica. Publicó dos trabajos en 1902 y 1903. En los últimos años de su vida. En 1939. en donde pasó los últimos veinticinco años de su vida en el Instituto de Estudios Superiores de Princeton. Pero sus propuestas en pro de que la humanidad evitara las amenazas de destrucción individual y colectiva. habían de regir el comportamiento de todos los objetos del universo. una 209 . Einstein dijo una vez que la política poseía un valor pasajero. la amargura por no hallar la fórmula que revelase el secreto de la unidad del mundo hubo de acentuarse por la necesidad en que se sintió de intervenir dramáticamente en la esfera de lo político. se unió a los científicos que buscaban la manera de impedir el uso futuro de la bomba y propuso la formación de un gobierno mundial a partir del embrión constituido por las Naciones Unidas. En 1901 apareció el primer trabajo científico de Einstein: trataba de la atracción capilar. se dirigió al presidente Roosevelt instándole a emprender un programa de investigación sobre la energía atómica. mientras que una ecuación valía para toda la eternidad. A partir de 1933. para él. Tal investigación. con un estuche de violín bajo el brazo. Durante la siguiente década. debía ser el objetivo último de la física: descubrir las leyes comunes que. a instancias de los físicos Leo Szilard y Paul Wigner. que ocupó el resto de su vida. sobre los fundamentos estadísticos de la termodinámica. corroborando experimentalmente que la temperatura de un cuerpo se debe a la agitación de sus moléculas. religión y socialismo. recibieron de los políticos un rechazo comparable a las críticas respetuosas que suscitaron entre los científicos sus sucesivas versiones de la idea de un campo unificado. Einstein concentró sus esfuerzos en hallar una relación matemática entre el electromagnetismo y la atracción gravitatoria. Luego de las explosiones de Hiroshima y Nagasaki. con el acceso de Hitler al poder. ciudad en la que murió el 18 de abril de 1955.multiplicar sus conferencias de divulgación por todo el mundo y popularizando su imagen de viajero de la tercera clase de ferrocarril. desde las partículas subatómicas hasta los cuerpos estelares. resultó infructuosa y acabó por acarrearle el extrañamiento respecto del resto de la comunidad científica.

uno de los líderes de la escuela antiatómica. En él Einstein proponía la idea de 210 . celebrando el centenario de publicación de estos trabajos. Efecto fotoeléctrico El segundo artículo se titulaba Un punto de vista heurístico sobre la producción y transformación de luz.teoría aún discutida en esa época. El artículo también aportaba un fuerte impulso a la mecánica estadística y a la teoría cinética de los fluidos. Wilhelm Ostwald. el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia masa-energía. comunicó a Arnold Sommerfeld que había sido transformado en un creyente en los átomos por la explicación de Einstein del movimiento browniano. Antes de este trabajo los átomos se consideraban un concepto útil en física y química. Estos artículos fueron enviados a la revista "Annalen der Physik" y son conocidos generalmente como los artículos del "Annus Mirabilis" (del Latín: Año extraordinario). El trabajo de Einstein sobre el efecto fotoeléctrico le proporcionaría el Premio Nobel de física en 1921. pero la mayoría de los científicos no se ponían de acuerdo sobre su existencia real. Movimiento browniano El primero de sus artículos de 1905.[12] Los artículos de 1905 En 1905 finalizó su doctorado presentando una tesis titulada Una nueva determinación de las dimensiones moleculares. titulado Sobre el movimiento requerido por la teoría cinética molecular del calor de pequeñas partículas suspendidas en un líquido estacionario. La explicación de Einstein proporcionaba una evidencia experimental incontestable sobre la existencia real de los átomos. En ellos explicaba el movimiento browniano. Ese mismo año escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. El movimiento browniano había desconcertado a la comunidad científica desde su descubrimiento unas décadas atrás. cubría sus estudios sobre el movimiento browniano. El artículo explicaba el fenómeno haciendo uso de las estadísticas del movimiento térmico de los átomos individuales que forman un fluido. El artículo de Einstein sobre el movimiento atómico entregaba a los experimentalistas un método sencillo para contar átomos mirando a través de un microscopio ordinario. dos campos que en aquella época permanecían controvertidos.

Una explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada. algunas de las ecuaciones fundamentales del artículo de Einstein habían sido introducidas anteriormente (1903) por Hendrik Lorentz. Este segundo axioma. físico holandés. por lo tanto. En este artículo Einstein introducía la teoría de la relatividad especial estudiando el movimiento de los cuerpos y el electromagnetismo en ausencia de la fuerza de interacción gravitatoria. La velocidad de la luz es. Su razonamiento se basó en dos axiomas simples: En el primero reformuló el principio de simultaneidad. y el segundo. Este artículo constituyó uno de los pilares básicos de la mecánica cuántica. Esta famosa publicación está cuestionada como trabajo original de Einstein. que la velocidad de la luz es constante para cualquier observador. introducido por Galileo siglos antes. por el que las leyes de la física deben ser invariantes para todos los observadores que se mueven a velocidades constantes entre ellos. Relatividad especial El tercer artículo de Einstein de ese año se titulaba Zur Elektrodynamik bewegter Körper ("Sobre la electrodinámica de cuerpos en movimiento"). De hecho. El mérito de Einstein estaba por lo tanto en explicar lo sucedido en el experimento de Michelson y Morley como consecuencia final de una teoría completa y elegante basada en principios fundamentales y no como una explicación ad-hoc o fenomenológica de un fenómeno observado. La relatividad especial resolvía los problemas abiertos por el experimento de Michelson y Morley en el que se había demostrado que las ondas electromagnéticas que forman la luz se movían en ausencia de un medio. 211 . Ya en 1894 George Fitzgerald había estudiado esta cuestión demostrando que el experimento de Michelson y Morley podía ser explicado si los cuerpos se contraen en la dirección de su movimiento."quanto" de luz (ahora llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico. En realidad Einstein desarrollaba su teoría de una manera totalmente diferente a estos autores deduciendo hechos experimentales a partir de principios fundamentales y no dando una explicación fenomenológica a observaciones desconcertantes. constante y no relativa al movimiento. debido a que en ella omitió citar toda referencia a las ideas o conceptos desarrollados por estos autores así como los trabajos de Poincaré. dando forma matemática a la conjetura de Fitzgerald. La teoría de los cuantos de luz fue un fuerte indicio de la dualidad ondacorpúsculo y de que los sistemas físicos pueden mostrar tanto propiedades ondulatorias como corpusculares.

Si a ambos lados de los observadores se pusiera un detector. Relatividad general En noviembre de 1915 Einstein presentó una serie de conferencias en la Academia de Ciencias de Prusia en las que describió la teoría de la relatividad general. multiplicada por la velocidad de la luz al cuadrado.revolucionario. midiendo la masa de núcleos atómicos y dividiendo por el número atómico se puede calcular la energía de enlace atrapada en los núcleos atómicos. es: donde V era la notación de la velocidad de la luz usada por Einstein en 1905. ninguno de los observadores se pondría de acuerdo en qué detector se activó primero (se pierden los conceptos de tiempo absoluto y simultaneidad). Paralelamente. ambos verán alejarse la luz produciendo un círculo perfecto con cada uno de ellos en el centro. En este artículo se exponía que "la variación de masa de un objeto que emite una energía L. distinta de las clásicas energía cinética y energía potencial. va más allá de las consecuencias previstas por Lorentz o Poincaré que simplemente relataban un mecanismo para explicar el acortamiento de uno de los brazos del experimento de Michelson y Morley. "energía en reposo". La última de estas charlas concluyó con la presentación de la ecuación que reemplaza a la ley de gravedad de Newton. La relación masa-energía se utiliza comúnmente para explicar cómo se produce la energía nuclear. En esta 212 . la cantidad de energía producida en la fisión de un núcleo atómico se calcula como la diferencia de masa entre el núcleo inicial y los productos de su desintegración. Esta ecuación implica que la energía E de un cuerpo en reposo es igual a su masa m multiplicada por la velocidad de la luz al cuadrado: Muestra cómo una partícula con masa posee un tipo de energía. Equivalencia masa-energía El cuarto artículo de aquel año se titulaba Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig y mostraba una deducción de la ecuación de la relatividad que relaciona masa y energía. Este postulado implica que si un destello de luz se lanza al cruzarse dos observadores en movimiento relativo.

expuso su Teoría de campo unificada en un artículo titulado «Sobre la teoría generalizada de la gravitación» (On the Generalized Theory of Gravitation) en la famosa revista Scientific American. después de su Teoría general de la relatividad. 213 . en alemán. La gravedad no es ya una fuerza o acción a distancia. Einstein se dio cuenta de que el mismo tipo de estadísticas podían aplicarse a grupos de átomos y publicó el artículo. Dicha búsqueda. Cuando se hizo pública esta confirmación la fama de Einstein se incrementó enormemente y se consideró un paso revolucionario en la física. Aunque Albert Einstein fue mundialmente célebre por sus trabajos en física teórica. como era en la gravedad newtoniana. la llamada Teoría de Campo Unificada. conjuntamente con Bose. A pesar de la abstracción matemática de la teoría. En 1919 Arthur Eddington fue capaz de medir. la desviación de la luz de una estrella al pasar cerca del Sol. muchas de las cuales no serían descubiertas sino con posterioridad a la muerte de Einstein. específicamente la gravitación y el electromagnetismo. La relatividad general fue obtenida por Einstein a partir de razonamientos matemáticos. La teoría proporcionaba las bases para el estudio de la cosmología y permitía comprender las características esenciales del Universo. Estadísticas de Bose-Einstein En 1924 Einstein recibió un artículo de un joven físico indio. consistió en una serie de intentos tendentes a generalizar su teoría de la gravitación para lograr unificar y resumir las leyes fundamentales de la física. El principio fundamental de la teoría era el denominado principio de equivalencia. Desde entonces la teoría se ha verificado en todos y cada uno de los experimentos y verificaciones realizados hasta el momento. la lengua más importante en física en la época. experimentos hipotéticos (Gedanken experiment) y rigurosa deducción matemática sin contar realmente con una base experimental. sino una consecuencia de la curvatura del espacio-tiempo. paulitinamente fue aislándose en su investigación.teoría todos los observadores son considerados equivalentes y no únicamente aquellos que se mueven con una velocidad uniforme. las ecuaciones permitían deducir fenómenos comprobables. y sus intentos no tuvieron éxito. describiendo a la luz como un gas de fotones y pidiendo la ayuda de Einstein para su publicación. Satyendra Nath Bose. una de las predicciones de la relatividad general. durante un eclipse. Persiguiendo la unificación de las fuerzas fundamentales. La Teoría de Campo Unificada Einstein dedicó sus últimos años a la búsqueda de una de las más importantes teorías de la física. Las estadísticas de Bose-Einstein explican el comportamiento de los tipos básicos de partículas elementales denominadas bosones. En el año 1950.

Los intentos propuestos por la Teoría de cuerdas o la Teoría M. las cuales no se entendieron bien sino después de quince años de la muerte de Einstein (cerca del año 1970) mediante numerosos experimentos en física de altas energías.Albert ignoró algunos importantes desarrollos en la física. muestran que aún perdura su ímpetu de alcanzar demostrar la gran teoría de la unificación de las leyes de la física. siendo notablemente visible en el tema de las fuerzas nuclear fuerte y nuclear débil. Leonardo Da Vinci I 214 .

Sus extraordinarios dones. a casi 500 años de su muerte. pero la mayoría fueron inventados con el fin de disminuir el esfuerzo y el trabajo humano. escribió. transformándose en el curioso más lucido de Occidente. biología. Su profundo amor por el conocimiento y la investigación fue la clave tanto de su comportamiento artístico como científico. ingeniería y matemáticas. Símbolo máximo del Renacimiento. Espero y les agrade. La suma de todo el conocimiento fue depositada en un solo hombre: Leonardo Da Vinci. Realizó cientos de minuciosos dibujos y esculturas. lo que tampoco le impidió ser un notable músico y poeta. se combinaron para aislarlo de su época. Las características de Leonardo no se han repetido –ni antes ni después de su existencia.Este trabajo está hecho con el fin de conocer un poco de la vida de Leonardo Da Vinci. los de aire y los de agua. Fue el responsable de pinturas como “la ultima cena” y “la Gioconda”. tienen plena vigencia. de igual manera. “si uno está solo. Leonardo fue dueño de un talento sobrenatural.en ningún otro ser humano. Aunque Leonardo estaba un poco adelantado en la manera de pensar a su época. autor de legendarios estudios de anatomía. una de las mentes más brillantes que han existido y la mejor del Renacimiento. A continuación se mostrara un poco sobre la vida de éste gran personaje. tal es el caso que de éstas surgieron inventos de gran trascendencia. el increíble genio del renacimiento cuyas ideas han cambiado al mundo y hoy. uno pertenece por entero a sí mismo”. la diversidad de sus intereses y una increíble imaginación. esto no le impidió el crear nuevas cosas y dar vuelo a su imaginación en el campo científico y artístico. se mostraran algunos de sus inventos como los terrestres. Vivió sus 67 años sin darle ni un día de franco a su genio. arquitectura. Algunos de sus inventos fueron utilizados con fines bélicos. 215 . La mayor parte de su vida la dedico al estudio y al aprendizaje de nuevas ideas.

En el terreno de la invención, Leonardo se adelantó más de cuatro siglos a su época. Estaba obsesionado por diseñar máquinas capaces de multiplicar varias veces la fuerza del hombre. Da Vinci registraba en papel todas sus ideas, haciéndose famosas sus anotaciones por su singular forma de escribir (escritura especular). En base a sus numerosos planes ha sido posible reconstruir todas las invenciones de un talento único en la historia del ser humano. A través de los años, la mayoría de las notas se perdieron o fueron robadas, pero algunas de ellas fueron encontradas siglos más tarde y fueron la base para el desarrollo de cientos de maquinarias que hoy son usadas hasta en la tecnología especial. Una muestra itinerante exhibe por Europa los dibujos de las máquinas ideadas por Leonardo más las maquetas que los recrean. Era un típico hombre del Renacimiento, que jamás quiso quedar encasillado por alguna de sus actividades y siempre estaba dispuesto a aprender algo nuevo. Dicen que el ultimo día de su vida, con el último aliento, se le escucho susurrar: “Ditemi che qualcosa e stata fatta” (decidme que alguna cosa se hizo). BIOGRAFIA Nació en 1452 en la villa toscana de Vinci, hijo natural de una campesina, Caterina (que se casó poco después con un artesano de la región), y de Ser Piero, un rico notario florentino. Italia era entonces un mosaico de ciudades-estados como Florencia, pequeñas repúblicas como Venecia y feudos bajo el poder de los príncipes o el papa. El Imperio romano de Oriente cayó en 1453 ante los turcos y apenas sobrevivía aún, muy reducido, el Sacro Imperio Romano Germánico; era una época violenta en la que, sin embargo, el esplendor de las cortes no tenía límites. A pesar de que su padre se casó cuatro veces, sólo tuvo hijos (once en total, con los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos últimos matrimonios, por lo que Leonardo se crió como hijo único. Su enorme curiosidad se manifestó tempranamente, dibujando animales mitológicos de su propia invención, inspirados en una profunda observación del entorno natural en el que creció. Giorgio Vasari, su primer biógrafo, relata cómo el genio de Leonardo, siendo aún un niño, creó un escudo de Medusa con dragones que aterrorizó a su padre cuando se topó con él por sorpresa.

216

Recreación del autorretrato de Leonardo Consciente ya del talento de su hijo, su padre lo autorizó, cuando Leonardo cumplió los catorce años, a ingresar como aprendiz en el taller de Andrea del Verrocchio, en donde, a lo largo de los seis años que el gremio de pintores prescribía como instrucción antes de ser reconocido como artista libre, aprendió pintura, escultura, técnicas y mecánicas de la creación artística. El primer trabajo suyo del que se tiene certera noticia fue la construcción de la esfera de cobre proyectada por Brunelleschi para coronar la iglesia de Santa Maria dei Fiori. Junto al taller de Verrocchio, además, se encontraba el de Antonio Pollaiuollo, en donde Leonardo hizo sus primeros estudios de anatomía y, quizá, se inició también en el conocimiento del latín y el griego. Juventud y descubrimientos técnicos Era un joven agraciado y vigoroso que había heredado la fuerza física de la estirpe de su padre; es muy probable que fuera el modelo para la cabeza de San Miguel en el cuadro de Verrocchio Tobías y el ángel, de finos y bellos rasgos. Por lo demás, su gran imaginación creativa y la temprana maestría de su pincel, no tardaron en superar a las de su maestro: en el Bautismo de Cristo, por ejemplo, donde un dinámico e inspirado ángel pintado por Leonardo contrasta con la brusquedad del Bautista hecho por Verrocchio.
217

El joven discípulo utilizaba allí por vez primera una novedosa técnica recién llegada de los Países Bajos: la pintura al óleo, que permitía una mayor blandura en el trazo y una más profunda penetración en la tela. Además de los extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro, sus grandes obras de este período son un San Jerónimo y el gran panel La adoración de los Magos (ambos inconclusos), notables por el innovador dinamismo otorgado por la maestría en los contrastes de rasgos, en la composición geométrica de la escena y en el extraordinario manejo de la técnica del claroscuro. Florencia era entonces una de las ciudades más ricas de Europa; sus talleres de manufacturas de sedas y brocados de oriente y de lanas de occidente, y sus numerosas tejedurías la convertían en el gran centro comercial de la península itálica; allí los Médicis habían establecido una corte cuyo esplendor debía no poco a los artistas con que contaba. Pero cuando el joven Leonardo comprobó que no conseguía de Lorenzo el Magnífico más que alabanzas a sus virtudes de buen cortesano, a sus treinta años decidió buscar un horizonte más prospero. Primer período milanés En 1482 se presentó ante el poderoso Ludovico Sforza, el hombre fuerte de Milán por entonces, en cuya corte se quedaría diecisiete años como «pictor et ingenierius ducalis». Aunque su ocupación principal era la de ingeniero militar, sus proyectos (casi todos irrealizados) abarcaron la hidráulica, la mecánica (con innovadores sistemas de palancas para multiplicar la fuerza humana), la arquitectura, además de la pintura y la escultura. Fue su período de pleno desarrollo; siguiendo las bases matemáticas fijadas por León Bautista Alberti y Piero della Francesca, Leonardo comenzó sus apuntes para la formulación de una ciencia de la pintura, al tiempo que se ejercitaba en la ejecución y fabricación de laúdes. Estimulado por la dramática peste que asoló Milán y cuya causa veía Leonardo en el hacinamiento y suciedad de la ciudad, proyectó espaciosas villas, hizo planos para canalizaciones de ríos e ingeniosos sistemas de defensa ante la artillería enemiga. Habiendo recibido de Ludovico el encargo de crear una monumental estatua ecuestre en honor de Francesco, el fundador de la dinastía Sforza, Leonardo trabajó durante dieciséis años en el proyecto del «gran caballo», que no se concretaría más que en una maqueta, destruida poco después durante una batalla.

218

El hombre de Vitruvio, canon del cuerpo humano Resultó sobre todo fecunda su amistad con el matemático Luca Pacioli, fraile franciscano que en 1494 publicó su tratado de la Divina proportione, ilustrada por Leonardo. Ponderando la vista como el instrumento de conocimiento más certero con que cuenta el ser humano, Leonardo sostuvo que a través de una atenta observación debían reconocerse los objetos en su forma y estructura para describirlos en la pintura de la manera más exacta. De este modo el dibujo se convertía en el instrumento fundamental de su método didáctico, al punto que podía decirse que en sus apuntes el texto estaba para explicar el dibujo, y no éste para ilustrar a aquél, por lo que Da Vinci ha sido reconocido como el creador de la moderna ilustración científica. El ideal del saper vedere guió todos sus estudios, que en la década de 1490 comenzaron a perfilarse como una serie de tratados (inconclusos, que fueron recopilados luego en el Codex Atlanticus, así llamado por su gran tamaño). Incluye trabajos sobre pintura, arquitectura, mecánica, anatomía, geografía, botánica, hidráulica, aerodinámica, fundiendo arte y ciencia en una cosmología individual que da, además, una vía de salida para un debate estético que se encontraba anclado en un más bien estéril neoplatonismo. Aunque Leonardo no parece que se preocupara demasiado por formar su propia escuela, en su taller milanés se creó poco a poco un grupo de fieles aprendices y alumnos: Giovanni Boltraffio, Ambrogio de Predis, Andrea Solari, su inseparable Salai, entre otros; los estudiosos no se han puesto de acuerdo aún acerca de la exacta atribución de algunas obras de este período, tales como la Madona Litta o
219

el retrato de Lucrezia Crivelli. Contratado en 1483 por la hermandad de la Inmaculada Concepción para realizar una pintura para la iglesia de San Francisco, Leonardo emprendió la realización de lo que sería la celebérrima Virgen de las Rocas, cuyo resultado final, en dos versiones, no estaría listo a los ocho meses que marcaba el contrato, sino veinte años más tarde. La estructura triangular de la composición, la gracia de las figuras, el brillante uso del famoso sfumato para realzar el sentido visionario de la escena, convierten a ambas obras en una nueva revolución estética para sus contemporáneos. A este mismo período pertenecen el retrato de Ginevra de Benci (1475-1478), con su innovadora relación de proximidad y distancia y la belleza expresiva de La belle Ferronière. Pero hacia 1498 Leonardo finalizaba una pintura mural, en principio un encargo modesto para el refectorio del convento dominico de Santa Maria dalle Grazie, que se convertiría en su definitiva consagración pictórica: La última cena. Necesitamos hoy un esfuerzo para comprender su esplendor original, ya que se deterioró rápidamente y fue mal restaurada muchas veces. La genial captación plástica del dramático momento en que Cristo dice a los apóstoles «uno de vosotros me traicionará» otorga a la escena una unidad psicológica y una dinámica aprehensión del momento fugaz de sorpresa de los comensales (del que sólo Judas queda excluido). El mural se convirtió no sólo en un celebrado icono cristiano, sino también en un objeto de peregrinación para artistas de todo el continente. El regreso a Florencia A finales de 1499 los franceses entraron en Milán; Ludovico el Moro perdió el poder. Leonardo abandonó la ciudad acompañado de Pacioli y tras una breve estancia en casa de su admiradora la marquesa Isabel de Este, en Mantua, llegó a Venecia. Acosada por los turcos, que ya dominaban la costa dálmata y amenazaban con tomar el Friuli, la Signoria contrató a Leonardo como ingeniero militar. En pocas semanas proyectó una cantidad de artefactos cuya realización concreta no se haría sino, en muchos casos, hasta los siglos XIX o XX, desde una suerte de submarino individual, con un tubo de cuero para tomar aire destinado a unos soldados que, armados con taladro, atacarían las embarcaciones por debajo, hasta grandes piezas de artillería con proyectiles de acción retardada y barcos con doble pared para resistir las embestidas. Los costes desorbitados, la falta de tiempo y, quizá, las excesivas (para los venecianos) pretensiones de Leonardo en el reparto del botín, hicieron que las geniales ideas no pasaran de bocetos. En abril de 1500 Da Vinci entró en Florencia, tras veinte años de ausencia. César Borgia, hijo del papa Alejandro VI, hombre ambicioso y temido, descrito por el propio Maquiavelo como «modelo insuperable» de intrigador político y déspota, dominaba Florencia y se preparaba para lanzarse a la conquista de nuevos territorios. Leonardo, nuevamente como ingeniero militar, recorrió los terrenos del norte, trazando mapas, calculando distancias precisas, proyectando
220

puentes y nuevas armas de artillería. Pero poco después el condottiero cayó en desgracia: sus capitanes se sublevaron, su padre fue envenenado y él mismo cayó gravemente enfermo. En 1503 Leonardo volvió a la ciudad, que por entonces se encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el río Arno por detrás de la ciudad enemiga cercándola y contemplando la construcción de un canal como vía navegable que comunicase Florencia con el mar: el proyecto sólo se concretó en los extraordinarios mapas de su autor. Pero Leonardo ya era reconocido como uno de los mayores maestros de Italia. En 1501 había causado admiración con su Santa Ana, la Virgen y el Niño; en 1503 recibió el encargo de pintar un gran mural (el doble del tamaño de La última cena) en el palacio Viejo: la nobleza florentina quería inmortalizar algunas escenas históricas de su gloria. Leonardo trabajó tres años en La batalla de Angheri, que quedaría inconclusa y sería luego desprendida por su deterioro. Importante por los bocetos y copias, éstas admirarían a Rafael e inspirarían, un siglo más tarde, una célebre de Peter Paul Rubens. También sólo en copias sobrevivió otra gran obra de este periodo: Leda y el cisne. Sin embargo, la cumbre de esta etapa florentina (y una de las pocas obras acabadas por Leonardo) fue el retrato de Mona Lisa. Obra famosa desde el momento de su creación, se convirtió en modelo de retrato y casi nadie escaparía a su influjo en el mundo de la pintura. La mítica Gioconda ha inspirado infinidad de libros y leyendas, y hasta una ópera; pero poco se sabe de su vida. Ni siquiera se conoce quién encargó el cuadro, que Leonardo se llevó consigo a Francia, donde lo vendió al rey Francisco I por cuatro mil piezas de oro. Perfeccionando su propio hallazgo del sfumato, llevándolo a una concreción casi milagrosa, Leonardo logró plasmar un gesto entre lo fugaz y lo perenne: la «enigmática sonrisa» de la Gioconda es uno de los capítulos más admirados, comentados e imitados de la historia del arte y su misterio sigue aún hoy fascinando. Existe la leyenda de que Leonardo promovía ese gesto en su modelo haciendo sonar laúdes mientras ella posaba; el cuadro, que ha atravesado no pocas vicisitudes, ha sido considerado como cumbre y resumen del talento y la «ciencia pictórica» de su autor. De nuevo en Milán: de 1506 a 1513 El interés de Leonardo por los estudios científicos era cada vez más intenso: asistía a disecciones de cadáveres, sobre los que confeccionaba dibujos para describir la estructura y funcionamiento del cuerpo humano. Al mismo tiempo hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba escribir un tratado), en la convicción de que también el hombre podría volar si llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este período se han visto como claros precursores del moderno helicóptero). Absorto por estas cavilaciones e inquietudes, Leonardo no dudó en abandonar Florencia cuando en 1506 Charles d'Amboise, gobernador francés de Milán, le ofreció el cargo de arquitecto y pintor de la corte; honrado y admirado por su nuevo patrón, Da Vinci proyectó para él un castillo y ejecutó bocetos para el
221

oratorio de Santa Maria dalla Fontana, fundado por aquél. Su estadía milanesa sólo se interrumpió en el invierno de 1507 cuando, en Florencia, colaboró con el escultor Giovanni Francesco Rustici en la ejecución de los bronces del baptisterio de la ciudad. Quizás excesivamente avejentado para los cincuenta años que contaba entonces, su rostro fue tomado por Rafael como modelo del sublime Platón para su obra La escuela de Atenas. Leonardo, en cambio, pintaba poco dedicándose a recopilar sus escritos y a profundizar sus estudios: con la idea de tener finalizado para 1510 su tratado de anatomía trabajaba junto a Marcantonio della Torre, el más célebre anatomista de su tiempo, en la descripción de órganos y el estudio de la fisiología humana. El ideal leonardesco de la «percepción cosmológica» se manifestaba en múltiples ramas: escribía sobre matemáticas, óptica, mecánica, geología, botánica; su búsqueda tendía hacia el encuentro de leyes funciones y armonías compatibles para todas estas disciplinas, para la naturaleza como unidad. Paralelamente, a sus antiguos discípulos se sumaron algunos nuevos, entre ellos el joven noble Francesco Melzi, fiel amigo del maestro hasta su muerte. Junto a Ambrogio de Predis, Leonardo culminó en 1508 la segunda versión de La Virgen de las Rocas; poco antes, había dejado sin cumplir un encargo del rey de Francia para pintar dos madonnas. Ultimos años: Roma y Francia El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio, quien pretendía retomar para sí el monumental proyecto del «gran caballo», convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San Nazaro Magiore; pero tampoco esta vez el monumento ecuestre pasó de los bocetos, lo que supuso para Leonardo su segunda frustración como escultor. En 1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán; junto a Melzi y Salai marchó a Roma, donde se albergó en el belvedere de Giulano de Médicis, hermano del nuevo papa León X. En el Vaticano vivió una etapa de tranquilidad, con un sueldo digno y sin grandes obligaciones: dibujó mapas, estudió antiguos monumentos romanos, proyectó una gran residencia para los Médicis en Florencia y, además, trabó una estrecha amistad con el gran arquitecto Bramante, hasta la muerte de éste en 1514. Pero en 1516, muerto su protector Giulano de Médicis, Leonardo dejó Italia definitivamente, para pasar los tres últimos años de su vida en el palacio de Cloux como «primer pintor, arquitecto y mecánico del rey». El gran respeto que Francisco I le dispensó hizo que Leonardo pasase esta última etapa de su vida más bien como un miembro de la nobleza que como un empleado de la casa real. Fatigado y concentrado en la redacción de sus últimas páginas para su tratado sobre la pintura, pintó poco aunque todavía ejecutó extraordinarios dibujos sobre temas bíblicos y apocalípticos. Alcanzó a completar el ambiguo San Juan Bautista, un andrógino duende que desborda gracia,
222

sensualidad y misterio; de hecho, sus discípulos lo imitarían poco después convirtiéndolo en un pagano Baco, que hoy puede verse en el Louvre de París. A partir de 1517 su salud, hasta entonces inquebrantable, comenzó a desmejorar. Su brazo derecho quedó paralizado; pero con su incansable mano izquierda Leonardo aún hizo bocetos de proyectos urbanísticos, de drenajes de ríos y hasta decorados para las fiestas palaciegas. Su casa de Amboise se convirtió en una especie de museo, plena de papeles y apuntes conteniendo las ideas de este hombre excepcional, muchas de las cuales deberían esperar siglos para demostrar su factibilidad e incluso su necesidad; llegó incluso, en esta época, a concebir la idea de hacer casas prefabricadas. Sólo por las tres telas que eligió para que lo acompañasen en su última etapa, la Gioconda, el San Juan y Santa Ana, la Virgen y el Niño, puede decirse que Leonardo poseía entonces uno de los grandes tesoros de su tiempo. El 2 de mayo de 1519 murió en Cloux; su testamento legaba a Melzi todos sus libros, manuscritos y dibujos, que éste se encargó de retornar a Italia. Como suele suceder con los grandes genios, se han tejido en torno a su muerte algunas leyendas; una de ellas, inspirada por Vasari, pretende que Leonardo, arrepentido de no haber llevado una existencia regido por las leyes de la Iglesia, se confesó largamente y, con sus últimas fuerzas, se incorporó del lecho mortuorio para recibir antes de expirar, los sacramentos. INVENTOS Y DISEÑOS Puede comprenderse la actitud de Ludovico del Moro, duque de Milán, quien permanecía más bien incrédulo ante tanta maravilla. Quiso tener a su lado a aquel inventor de apenas 30 años, y que ya suscitaba la fascinación de un mago; pero titubeó siempre antes de consentir en la realización de sus proyectos, por considerarlos irrealizables. La mayoría de los inventos de Leonardo Da Vinci no fueron llevados a la práctica por considerar que superaban las posibilidades de la técnica de la época, a pesar de que Leonardo estudió la mayoría de sus proyectos cuidando los detalles y resolviendo las dificultades de la construcción. Muchos de los diseños tienen de puño y letra del inventor, detallados planos y planes de trabajo para el taller que habría de encargarse de realizar el proyecto. Fue el primero en estudiar científicamente la resistencia de los materiales utilizados en las construcciones mecánicas, y de tales investigaciones se sirvió para establecer las secciones de las estructuras de sus máquinas. Se puede sacar la conclusión que la no realización de casi todos sus inventos se debe más a la audacia del proyecto que a las dificultades prácticas de la fabricación.

223

Los contemporáneos de Da Vinci no creían posible que máquinas semejantes pudieran existir. La profunda imaginación de Leonardo lo llevo a diseñar un gran número de máquinas ingeniosas, desde bélicas hasta instrumentos científicos y máquinas voladoras. A pesar de que únicamente los inventos militares fueron los que llevaron a sus patrocinadores a brindarle apoyo económico, él se las ingenió para desarrollar paralelamente principios básicos de ingeniería general. Toda su obra fue agrupada –por el mismo Leonardo- en los tres elementos: aire, tierra y agua. Entre sus inventos de aire encontramos, entre otros, la hélice aérea, precursora del helicóptero, la máquina voladora vertical, o el paracaídas, casi del mismo diseño que los actuales. Su obra de tierra se divide entre lo militar, en especial con la capacidad de multiplicar el poder del fuego: ametralladora, tanque militar o cureña de cañón y los diseños generales como los de un carro automotor, una grúa o una bicicleta, entre otros. modelo de bicicleta El agua ejerció en Da Vinci un especial atractivo. Su imaginación dio origen al doble casco de las embarcaciones, el puente giratorio o múltiples aparatos basados en el “tornillo de Arquímedes”, un mecanismo por el cual se podía movilizar el agua en contra de la fuerza de gravedad.

A continuación se muestran algunas de las invenciones de Leonardo.

Aire

Hélice Aérea Leonardo estaba fascinado por la forma helicoidal, muy común en la naturaleza, e involucrada en el principio de la hélice. Aplicando una variante del principio de
224

Arquímedes, su hélice aérea –un modelo a escala- antecede al helicóptero y a las hélices de nuestros días. Cuatro hombres apoyando los pies sobre la plataforma central debían hacer fuerza sobre las barras sujetas al palo vertical. De esta manera habrían hecho girar sobre sí mismo al inmenso y livianísimo “tornillo” de diez metros de diámetro, que se elevaría luego “enroscándose” en el aire.

Diagrama original

Maqueta

Esta máquina, lógicamente, no habría podido volar jamás, pero ofrece un concepto científicamente exacto. En el mismo principio se basan los modernos helicópteros, en los que la gran hélice horizontal obra exactamente como este tornillo, con la ventaja de actuar a una gran velocidad.

225

Máquinas voladoras Cautivado por la posibilidad de volar, Da Vinci diseñó varios dispositivos para ese fin que, aunque sin aplicación práctica inmediata, establecieron algunos principios de la aerodinámica. Entre las que ideó y esbozó se encontraba un “ornitóptero”, máquina diseñada para volar batiendo las alas, simulando los movimientos de un ave en vuelo. Los ornitópteros han despertado el interés de los entusiastas por la aviación desde hace cientos de años, en el transcurso de los cuales se han desarrollado distintos diseños.

Paracaídas Para Leonardo, el hombre podría dominar el vuelo. Pero también debería estar preparado para atenuar caídas. Concibió la idea del paracaídas, e indicó claramente sus dimensiones. Dejó escrito: “si un hombre dispone de un dosel de paño que tenga 12 brazos de cara por 12 de alto, podrá arrojarse de cualquier altura, sin hacerse daño.” Es por eso que experimento una serie de modelos con ese objetivo. Finalmente inventó este paracaídas, con un diseño familiar a los actuales. Fue probado con éxito desde una torre construida especialmente para ello.

Planeador Leonardo fue quien afrontó por primera vez el problema del vuelo e inventó una especie de aeroplano sin motor que sería capaz de volar sostenido por las corrientes de aire. Para ello se basó en un intensivo estudio sobre las alas de los murciélagos. Su máquina de volar funcionaba como un planeador, por lo que era incapaz de mantenerse mucho tiempo en el aire.

226

maqueta Tierra Automóvil Usando varios bocetos que dejó en uno de sus códices. La máquina está dotada de un rudimentario diferencial. al tiempo que la propulsión proviene de dos muelles de espiral colocados en la parte baja del prototipo y que le permiten recorrer varios metros de forma autónoma. Está formado por un carro de madera con varios muelles ballesta para regular el movimiento. se ha podido construir un automóvil ideado hace más de cinco siglos por Leonardo da Vinci y capaz de recorrer varios metros. Engranajes Resultan casi obsesivos los estudios de engranajes en las anotaciones de Leonardo. Este estudio fue muy importante en muchos de sus inventos. 227 . que permite controlar la dirección.

teniendo muchas aplicaciones en la tecnología moderna. Gato Como el levantar grandes pesos constituye uno de los problemas más comunes de la ingeniería y mecánica. previó el empleo de numerosas bocas de fuego montadas sobre una única cureña y de pequeños proyectiles o explosivos que. Ametralladora Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras. cargados en un solo cañón. se esparcirán después del disparo. no obstante el tiempo transcurrido. Cañones 228 . El mismo diseño se utiliza hoy en día en los gatos para elevar automotores. Leonardo Da Vinci dedicó mucho tiempo al diseño de dispositivos en los que aplicó los principios de la polea. Incluso en los planos se observa que el diseño de esta herramienta casi no ha sufrido variaciones. Construida con diez cilindros que pueden dispararse uno a uno o simultáneamente según la necesidad. ha mantenido importancia a través de los años. El diseño se usó hasta bien avanzado el siglo XVIII.Además.

diagrama original maqueta Cañón de vapor Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza de expansión del vapor de agua. y con capacidad de disparar tres cargas de once tiros consecutivos. Obsérvese en la ilustración. dotado de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio. que tuvieron una aplicación práctica sólo unos siglos después.Esta máquina bélica ideada por Leonardo es un cañón de bocas múltiples. La recarga de los cañones por la parte posterior (retrocarga) fue otro de sus geniales inventos. 229 . el ingenioso dispositivo para la abertura del obturador en forma de tornillo cónico.

al ser accionado con las manos.Otros inventos de Leonardo en el campo de las armas de fuego fueron los proyectiles de punta ojival y el dispositivo para el encendido automático de la mecha en los arcabuces y en las pistolas. Este mecanismo. de unos 90 cm de largo. este invento fue aplicado enseguida. Agua Barco Barco con propulsión de paletas proyectado por Leonardo. Tal tipo de propulsión encontraría aplicación sólo tres siglos después con la navegación a vapor. a fin de que los proyectiles resbalasen por encima. en el interior del mismo. pondría en movimiento las paletas y lo haría navegar a velocidad considerable. haciendo realizar a la rueda dentada (movida mediante una manivela) cincuenta vueltas por minuto la embarcación avanzaría a la velocidad de 50 millas por hora. Anticipo del tanque moderno. Según sus cálculos. Tanque militar “Carro de asalto” proyectado por Leonardo hace cuatrocientos años. 230 . Estaría provista de un revestimiento cónico. daban vuelta a manivelas relacionadas con las ruedas mediante engranajes. Este carro (que según su creador “remplazaría a los elefantes en las batallas”) se movía con la fuerza de hombres que. Este barco está dotado con un mecanismo de ruedas con paletas.

Una draga excavadora que se podía usar para la limpieza del fondo de los canales. Este principio es idéntico al de las dragas modernas. Sistema de Irrigación Leonardo fue el primero en llevar a la práctica el Principio de Arquímedes.Draga También figura entre sus proyectos el de una draga lagunera. o palas excavadoras. actuaban uno tras otro. Los cubos. El conjunto no es muy distinto de los que utilizan en la actualidad los hombres-rana. los flotadores de almacenaje. mediante una serie de giros helicoidales. Estos estaban dispuestos de tal forma que permitían descargar automáticamente en un depósito especial. Haciendo girar esta pieza. base teórica del “tornillo sin fin”. el agua podía ser trasladada a un nivel más alto. 231 . Es el mismo mecanismo que se utiliza en los actuales sistemas de irrigación. Traje de Buzo Traje de buzo y aleta para aplicar a las manos para la natación submarina. el material recogido.

ya que se adelanto por mucho a la manera de pensar de su época. Conclusión Personal Podemos concluir que Leonardo Da Vinci fue y será una de las mentes más brillantes de todos los tiempos. sólo que se usan en los pies y no en las manos.traje aleta Las aletas son parecidas a las actuales “pata de rana”. Leonardo Da Vinci II 232 . Leonardo proyectó asimismo una escafandra y un sumergible de doble casco.

Pero por el momento abordaremos solo y especialmente el notable interés de Leonardo Da Vinci hacia la ciencia y la tecnología. por lo tanto estuvo interesado en todos los aspectos del saber.Este trabajo de investigación es muy importante a mi parecer para la historia de la humanidad ya que Da Vinci no solo se distingue por ser uno de los mejores pintores o escultores. Por eso es que este tema resulta muy interesante solo por el simple o tal vez el extraordinario hecho de que Leonardo Da Vinci era un maestro en las artes y la ciencia. si no que la verdad era un genio por sus grandes inventos a nivel tecnológico que hoy en día se aplican en los más avanzadas técnicas ingenieriles. así pues dando pie a nuestro desarrollo. 233 . ya que a casi 500 años de su muerte no deja de intrigarnos. ya que sus ideas eran muy avanzadas para su tiempo.

realizó todo lo que se relacionaba con el arte del dibujo». Trabajó sobre todo para el poderoso Lorenzo de Médici. escultor y fundidor. porque le gustaba plasmar la naturaleza que lo rodeaba.[] y muy ecléctico. pero sus obras más grandes fueron frescos para las capillas. Fue así como.[] []En efecto. y grandes esculturas como las estatuas ecuestres de Erasmo de Narni por Donatello y Bartolomeo Colleoni de Verrocchio. En su pueblo natal desarrollo el gusto por la pintura.[ ]pero además fue pintor. ser Piero tomó algunos de sus dibujos y se los mostró a su amigo Andrea del Verrocchio y le pidió insistentemente que le dijera si Leonardo se podría dedicar al arte del dibujo y si podría conseguir algo en esta materia. que tenía su taller muy cerca del de Verrocchio. Dibujaba caricaturas y practicaba la escritura especular en dialecto toscano. De formación era orfebre y herrero. viajaba muy a menudo en [] Florencia. aunque Leonardo estaba empadronado como residente del municipio de Vinci.[] Leonardo trabajó también con Antonio Pollaiuolo. donde su padre trabajaba. los nuevos inventos presentados ya fueran de él o de alguien mas. Perugino y Domenico Ghirlandaio. a partir de 1469. Leonardo no se hizo rogar. a quien debe parte de su excelente formación multidisciplinaria. 234 . no contento con ejercer este oficio. Actualmente Leonardo es mas conocido por sus hermosas y asombrosas pinturas que por otros aspectos de su vida como puede ser el de ingeniero militar. de manera que ser Piero resolvió que Leonardo entraría a trabajar en el taller de Andrea. El joven Leonardo era un amante de la naturaleza. en la que se aproxima a otros artistas como Sandro Botticelli. Andrea se sorprendió mucho de los extraordinarios dones de Leonardo y le recomendó a ser Piero que le dejara escoger este oficio. si no la dinámica. a finales de 1468. Actualmente vemos en guerras la tecnología de primer nivel que al paso del tiempo se ha ido desarrollando pero que comenzó hace 5 siglos durante la época de Leonardo da Vinci en el renacimiento italiano. El interés bélico de Da Vinci nos habla de su persona. y.DESARROLLO. Los encargos principales fueron retablos y estatuas conmemorativas para las iglesias. del inventor y del mundo que lo rodeó: Leonardo nació en Vinci. la cual observaba con gran curiosidad y le interesaba. ya que a Leonardo le fascinaba la guerra en el sentido físico. Giorgio Vasari cuenta una anécdota sobre los primeros pasos en la carrera artística del gran artista: «un día. como las creadas por Domenico Ghirlandaio para la capilla Tornabuoni. esto no quiere decir que le interesaran los asesinatos. Verrocchio fue un artista de renombre. Leonardo entró como aprendiz a uno de los talleres de arte más prestigiosos bajo el magisterio de Andrea del Verrocchio. Italia el 15 de abril de 1452 y murió en Amboise el 2 de mayo de 1519 a la edad de 67 años.

Verrocchio inició a Leonardo en las numerosas técnicas que se practicaban en un taller tradicional. impresa en Venecia en 1484. En el año 1476 siempre aparece mencionado como ayudante de Verrocchio. también se supone que es el retrato de Leonardo el que representa al arcángel Miguel en la obra Tobías y el ángel de Verrocchio. apareció registrado en el Libro rojo del gremio SintLucasgilde.[]Por otra parte. del trabajo del cuero y del yeso. según la leyenda. el Paisaje del valle del Arno o Paisaje de Santa Maria della neve (1473). de la mecánica y de la carpintería. únicamente colaboró en una pintura llamada Bautismo de Cristo (1472-1475).[] También. ya que.[] No se conoce la existencia de ninguna obra de Leonardo durante la época en que trabajó con Verrochio. el célebre gremio de los artistas y doctores en medicina. una estatua en bronce. incluso después de que su padre le ayudase a tener su propio taller. que en Florencia se agrupaba con la denominación de la "Campagnia de pittori". y que representa perfectamente el saber de estas escuelas de abaquistas. a la edad de veinte años. Al darse cuenta del talento excepcional que tenía Leonardo.[] Posteriormente.[] Leonardo habría servido de modelo para el David de Verrocchio.Después de un año dedicado a la limpieza de los pinceles y otras pequeñas actividades propias de un aprendiz.[] Fue así como comenzó su carrera de pintor con obras ya destacables como La Anunciación (14721475).[] []Igualmente. Así. Verrocchio abandonó la terminación de la obra cuando se sintió superado por la calidad del joven Leonardo. Según Vasari. Paolo Toscanelli del Pazzo y Leonardoo Chernionese. de acuerdo con la tradición de que era el aprendiz quien debía posar. la pintura y la escultura sobre mármol y bronce. que dejó su toque magistral en un pequeño ángel presente en la obra. y mejoró la técnica del sfumato hasta un punto de refinamiento nunca conseguido antes de él. Estudió cálculo algorítmico y mostró el buen conocimiento que tenía citando a los dos abaquistas florentinos más relevantes. De esta época deriva uno de sus primeros trabajos conocidos. un dibujo hecho con pluma y tinta. él 235 . en este contexto. Leonardo tuvo la oportunidad de aprender las bases de la química. Del mismo modo. de la metalurgia. recibió formación en habilidades como la preparación de los colores. La formación recibida durante su aprendizaje en el taller de Verrochio va más allá y se extiende a otros ámbitos culturales. Verrocchio decidió confiarle a su alumno terminar algunos de sus trabajos. así como de diversas técnicas artísticas como el dibujo.[] En 1472. el grabado y la pintura de los frescos. Leonardo mencionó la Nobel opera de arithmética de Piero Borgi.

inventor e ingeniero. académica y pragmática como Milán. arquitecto. Leonardo era un hombre de campo pero gracias a su ambición salió de ese ambiente para triunfar por sí mismo. Se dio cuenta que la manera más fácil de derrotar al enemigo era atemorizándolo mas no matándolo y varios de sus diseños partieron de este pensamiento: la ballesta gigante por citar alguno es uno de los mas intimidantes de todos.[] En ese año Leonardo contaba con 26 años. De esta manera se convirtió en un maestro pintor independiente. triunfando una vez más.[] El neoplatonismo. no permite afirmar categóricamente que Leonardo fuera homosexual.[] Pronto Leonardo también destacó como ingeniero. ofreciendo sus servicios como ingeniero militar al duque de Milán. en Roma. pero todos fueron absueltos. Da Vinci aporto en Milán grandes ideas como: puentes móviles y barcos de asalto. pero Leonardo nunca acabó éste cuadro. pudo desempeñar también un importante papel en la decisión de su marcha a una ciudad más abierta.continuó colaborando con Verrocchio debido a que le profesaba un gran afecto.[] Este documento. En 1478. el eje era un bloque que se deslizaba hacia atrás jalándolo con unas cuerdas y apoyado de un gran engranaje. práctica que en aquella época en Florencia era ilegal. que en aquel tiempo estaba de moda en Florencia. probablemente decepcionado o humillado por no haber sido elegido por el papa Sixto IV para decorar la capilla Sixtina del Vaticano. los arcos estaban fabricados con madera fina bastante flexible. El archivo judicial de este mismo año recoge el dato de que él y tres hombres más fueron acusados en un caso de sodomía. En 1481 el monasterio de San Donato le encargó la Adoración de los magos.[] Durante este período. La Virgen del clavel (1476). Pienso que en cualquier época la movilidad y forma de distribuirse puede ser decisiva en un campo de batalla. recibió encargos personales y pintó su primer cuadro. donde había una fuerte competencia entre varios pintores (como Miguel Ángel). y fue cuando se alejó de lado de su maestro después de haberlo superado brillantemente en todas las disciplinas. que partía de una acusación anónima. media 75X27 metros.[] Probablemente en éste 236 . se ofreció para levantar la iglesia octagonal de San Juan de Florencia. se estreno en Florencia con su capacidad como pintor. Su misma ambición lo traslado a Milán una ciudad sumamente bélica.

espectáculos y torneos. ingeniero militar. Leonardo pintó La Virgen de las Rocas (1483-1486) para la confraternidad de la Inmaculada Concepción. bajo el servicio de César Borgia para quien realiza trabajos de ingeniería militar. Este cuadro fue el origen de un conflicto entre el autor y los propietarios que duró varios años. pero posteriormente se inició un problema legal con esto. pintor y escultor. Museo del Louvre). Retrato de un músico (1485-90. Santa Ana. La Santa Cena (1495-98. terminando con dos versiones de la obra. en grandes proporciones para situarla en la plaza del Duomo de Milán. 237 . Londres). Durante sus diecisiete años de permanencia en Milán realiza las siguientes obras pictóricas: La Virgen de las rocas (1483-93. Donde se ofrece a Ludovico Moro como arquitecto. siendo empleado como organizador de fiestas. Leonardo se traslada a Vaprio.[] Leonardo obtuvo el derecho de poder copiar la obra. National Gallery. Pinacoteca Ambrosiana. Cracovia). Milán). fue el primero que comenzó a crear armas de fuego pero ninguna tan maravillosa e impresionante como el tanque blindado de Leonardo. Museo del Louvre) y Venecia. pero esto no garantizaba que todos sus inventos funcionaran. refectorio de Santa María delle Gracie. Ludovico le encarga una estatua ecuestre de su padre. donde realiza el retrato de Isabel de Este (1500.[] El problema no se resolvió hasta que hubo decisiones judiciales y la intervención de algunos amigos. dejó realizado un modelo de caballo de ocho metros que fue destruido en 1499. aunque nunca fue fundida. Milán). Leonardo trabajó en ella durante dieciséis años y. que iría a la capilla San Francesco el Grande de Milán. o tal vez si funcionaban pero el problema estaba en que esa época no se contaba con el material adecuado para fabricarlos. la Virgen. Mantua. En 1499 cae el ducado de Milán tras el enfrentamiento con Luis XII de Francia. Louvre). que se basaba en un desarrollo empírico de sus múltiples experimentos. La belle ferronniére (1490-95. el Niño y San Juan Bautista (1498-99. Francesco Sforza. Dama con armiño (1485-90. Museo Czartoryski. Participa en discusiones sobre la construcción de las catedrales de Milán y Pavía. creando complicados mecanismos que se utilizarán en fiestas. Leonardo sabia que creando armas múltiples y móviles ganaría tiempo en la batalla así como el cariño y el respeto de su jefe y de sus contrincantes. En pocas palabras Leonardo creaba.nuevo entorno estaba más en consonancia con su espíritu.

fusiles de repetición y una grúa móvil que facilitaría las labores de construcción. instalado en una chimenea. y dotado de una coraza en forma de cono. una máquina para pulir espejos. desde un diseño para la fabricación de un helicóptero (modelo dotado de alas giratorias equipado con amortiguadores para conseguir un suave aterrizaje) o un vehículo automóvil hasta el común rallador de pan. ninguno de estos inventos pasó del estadio del diseño. a pesar de que Leonardo no solo diseñaba extraordinarias máquinas sino que también se ocupaba de resolver todos y cada uno de los problemas relacionados con la construcción de las mismas. a pesar de que Leonardo estudió la mayoría de sus proyectos cuidando los detalles y resolviendo las dificultades de la construcción. El mismo sistema será utilizado en otra de sus máquinas. duque de Milán. pechadoras de cardas para perchar el paño. y que ya suscitaba la fascinación de un mago. quien permanecía más bien incrédulo ante tanta maravilla. consiguiendo elevar pesadas cargas. pasando por una práctica sierra para mármol. 238 . una máquina para fabricar maromas. son muchos los inventos atribuidos a Leonardo.Puede comprenderse la actitud de Ludovico el Moro. basado en el principio de la rueda de palas y en el aprovechamiento del calor residual. máquinas para tallar tornillos y limas. las embarcaciones sumergibles (submarinos) o los trajes para buzos de combate. que se hace funcionar mediante un motor de palas que. su molino de aire caliente. pero haciendo que el motor sea movido por agua. modernas puertas de batientes para las esclusas. vehículo accionado mediante una manivelas que utilizan la fuerza muscular. Como ingeniero. gira a consecuencia de la ascensión de gases de combustión caliente. máquinas de guerra tales como el carro blindado. Es un precedente de los medidores de caudal inventados más tarde. su excavadora flotante pretendía conseguir que los ríos fuesen navegables. Sin embargo. por considerarlos irrealizables. La mayoría de los inventos de Leonardo Da Vinci no fueron llevados a la práctica por considerar que superaban las posibilidades de la técnica de la época. ni fue utilizado. Quiso tener a su lado a aquel inventor de apenas treinta años. pero titubeó siempre antes de consentir en la realización de sus proyectos.

a pesar de que solo los inventos militares fuero lo que lo llevaron a sus patrocinadores a brindarle apoyo el que se las ingenio para desarrollar paralelamente principios básicos de ingeniería general. La profunda imaginación de Leonardo lo llevo a diseñar un gran numero de maquinas ingeniosas. Se puede sacar la conclusión que la no realización de casi todos sus inventos se debe mas la audacia del proyecto que las dificultades practicas de fabricación los contemporáneos de Leonardo no creían posible que maquinas semejantes pudieran existir. Todas sus obra fueron agrupadas – por el mismo Leonardo. fue el primero en estudiar científicamente la resistencia de los materiales utilizados en las construcciones mecánicas.en lo tres elementos que son el aire. Aire 239 . desde bélicas hasta instrumentos científico y maquinas voladoras. y de tales investigaciones se sirvió para establecer las secciones de las estructuras de sus maquinas. agua y tierra.Muchos de los diseños de tienen de puño y letra del inventor detallados planos y planes de trabajo para el taller que habría de encargarse de realizar el proyecto.

su hélice aérea -un modelo a escala.Hélice Diagrama de la hélice Leonardo estaba fascinado por la forma helicoidal.antecede al helicóptero y a las 240 . muy común en la naturaleza. e involucrada en el principio de la hélice. Aplicando una variante del principio de Arquímedes.

Maquinas voladoras 241 . pero con la ventaja de que la nueva hélice tiene mas velocidad. Esta maquina lógicamente no hubiera podido volar jamás. de esta manera habrían hecho girar sobre si mismo al inmenso y livianísimo ¨tornillo¨ de diez metros de diámetro que se elevaría y luego se ¨enroscándose¨ en el aire.hélices de nuestros días. pero ofrece un concepto científicamente exacto ya que de seto están los helicópteros de la actualidad. La explicación de cómo funcionaba: el fue cuatro hombres apoyando los pies sobre la plataforma central debían hacer fuerza sobre las barras sujetas ala palo vertical.

establecieron algunos principios de la aerodinámica. Paracaídas Diagrama del paracaídas 242 . simulando los movimientos de un ave en vuelo. este invento a despertado el interés de los entusiastas por la aviación desde hace cientos de años en el transcurso de los cuales se han desarrollado distintos diseños. aunque sin aplicación práctica inmediata. Entre la que ideo fue el ornitóptero maquina diseñada para volar batiendo las alas. Da Vinci diseñó varios dispositivos para ese fin que.Diagrama de una maquina voladora Cautivado por la posibilidad de volar.

finalmente invento este para caídas. Bueno ahora damos paso a uno de los más grandes inventos de Da Vinci o el más importante según de donde lo veas: Planeador 243 . fue probado con éxito desde una torre construida especialmente para ello. Dejo escrito en uno de sus bocetos: ¨si un hombre dispone de un dosel de de puño que tenga 12 brazos de cara por 12 de alto. pero también debería estar preparado atenuar una caída. podrá arrojarse de cualquier altura. Es por ello que experimento una serie de modelos con ese objetivo.Para Leonardo el hombre podría dominar el vuelo. sin hacerse daño¨. con un diseño similar a los actuales. concibió la idea del paracaídas. e indico claramente sus dimensiones.

por lo que era incapaz de mantenerse mucho tiempo en el aire. Tierra Bueno ahora siguen inventos terrestres: Automóvil 244 . su maquina de volar funcionaba como un planeador. Para ello se baso en un intenso estudio sobre las alas delos murciélagos.Diagrama del planeador Leonardo fue el primero en afrontar por primera vez el problema del vuelo e invento una especie de aeroplano sin motor que seria capaz de volar sostenido por las corrientes de aire.

La maquina esta dotada de un rudimentario diferencial. Este invento esta formado por un carro de manera con varios muelles ballesta para regular el movimiento.Diagrama del automóvil Usando varios bocetos que dejó en uno de sus códices. se ha podido construir un automóvil ideado hace más de cinco siglos por Leonardo da Vinci y capaz de recorrer varios metros. Engranajes 245 . al tiempo que la propulsión proviene de dos muelles de espiral colocados en la parte baja del prototipo y que le permiten recorre varios metros de forma autónoma. que permite controlar la dirección.

este estudio fue un paso importante en muchos de sus inventos. teniendo en la tecnología ya que es la base de muchas maquinas modernas para su funcionamiento. ha mantenido importancia a través de los años.DD Diagrama de una maquina de engranaje Resultan casi obsesivos los estudios de los engranajes en las anotaciones de Leonardo. Grúa 246 . Además.

247 .Diagrama de una grúa De este no hay mucho de que se baso pero si nos dice como era y como estaba colocada. montada sobre una plataforma de rodillos. la grúa giratoria inventada por nuestro gran creador. Y pues ahora son los invento terrestres pero con sentido bélico ya que nuestro amigo Da Vinci era un gran fan de esto pero como ya mencionado antes era mas apoyado en esto que en lo demás. de esto mismo se basaron para crear la grúas modernas pero con mas avance tecnológico. esta provista de una caja de contrapeso y de un cabestrante dotado de un freno dentado.

Esta construida con diez cilindros que pueden dispararse uno a una o simultáneamente según la necesidad. este diseño se uso hasta bien avanzado el siglo XVIII que fue evolucionando hasta la que podemos ver ahora. 248 . se esparcirán después del disparo. cargados en un solo cañón.Ametralladora Diagrama de la ametralladora Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras. previó el empleo de numerosas bocas de fuego montadas sobre una única cureña y de pequeños proyectiles o explosivos que.

mientras se dispara la segunda y se enfriaba la tercera.Cañones Diagrama original Esta maquina bélica ideada por Leonardo es un cañón de bocas múltiples. dotado de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio y con capacidad para disparar tres cargas de once tiros consecutivos. Dispara una serie. se podía recargar la primera y así sucesivamente el poder de fuego. Cañón de vapor 249 .

Estaría provista de un revestimiento cónico. La carga de los cañones por la parte posterior fue otro de sus geniales inventos.Figura Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza de expansión del vapor de agua. que tuvieron una aplicación práctica siglos después. a fin de que los proyectiles resbalasen por encima. Otros inventos de Leonardo en el campo de las armas de fuego fueron los proyectiles de punta ojival y el dispositivo para el encendido automático de la mecha en los arcabuces y en las pistolas Tanque militar Diagrama original Carro de asalto proyectado por Leonardo hace 400 años. Este carro según su creador ¨ reemplazaría a los elefantes 250 . anticipo del tanque moderno.

daban vuelta alas manivelas relacionadas con las ruedas mediante engranajes. haciendo realizar la rueda dentada cincuenta vueltas por min la embarcación avanzaría a la velocidad de 50 millas por hora. Este mecanismo al ser accionado con las manos. Draga 251 . en el interior. se movía con la fuerza de hombres que. Agua Embarcación Diagrama original Barco dotado con un mecanismo de ruedas con paletas de 90 cm de largo. Con esto damos fin a los inventos de que se basan en la tierra y ahora los siguientes son lo del Agua. Según sus cálculos.en las batallas¨. pondría en movimiento las paletas y lo haría navegar a la velocidad considerable.

el material recogido. Una draga excavadora que se podía usar para la limpieza del fondo de los canales. actuaba una tras otra. Sistema de irrigación 252 . los flotadores de almacenaje.D Diagrama original También figura en sus inventos una draga lagunera. Este principio es idéntico al de las dragas modernas. Los cubos o Palas excavadoras. estas estaban dispuestas de tal forma que permitían descargar automáticamente en un depósito especial.

Leonardo fue el primero en llevar a la practica el principio de Arquímedes base teórica del tornillo sin fin. Haciendo girar esta pieza el agua podía ser trasladada a un nivel más alto. Traje de buzo 253 . mediante una serie de giros helicoidales.

globalizante. ni tampoco por el del razonamiento intelectual que bebe exclusivamente del saber de los autores anteriores. lo aprendió. Ignoraba el latín. era iletrado. Pero el latín. y 254 . única vía de acceso en esos momentos a los estudios humanistas. efectivamente. Las aletas son parecidas a las actuales ¨pata de rana¨. Leonardo aspiraba al conocimiento total. pero no aspiraba a llegar a él por el camino del estudio de la revelación. porque. Su educación había sido otra: de niño le enseñaron simplemente a leer y escribir y a echar cuentas. como los escolásticos y los teólogos de los siglos precedentes.Proyecto de escafandra llamado así por Leonardo Da Vinci Traje de buzo y aleta para aplicar a las manos para la natación submarina. sistemas para tener un control ya sea para el agua o ciertos materiales par la existencia de la humanidad. Él mismo se definía como un "uomo senza lettere". solo que se usan en los pies En lugar de las manos. No fue escolástico ni se confió a ciegas a la autoridad de los autores clásicos. Estos son algunos de los inventos de nuestro amigo el inventor mas importantes entre los elementos ya que con base ha esto se desarrollaron los inventos que en nuestra actualidad son muy necesarios para la humanidad ya que algunos son medios de transporte. como hicieron muchos hombres del Renacimiento.

¿Para qué son útiles estas reglas? Nos conducen a ulteriores investigaciones sobre la Naturaleza y a las creaciones artísticas. Ese es el método que hay que seguir en todas las investigaciones sobre los fenómenos de la Naturaleza" "Hemos de consultar a la experiencia en una diversidad de casos y circunstancias hasta que podamos extraer de ellos una regla general que en ellos se contenga. vio la imposibilidad experimental del "movimiento continuo 255 . Pensaba que la mecánica era la más noble de las ciencias "puesto que vemos que por medio de ella realizan sus acciones todos los cuerpos animados que poseen movimiento". siendo hoy en día. pero en sus cuadernos de apuntes nos dejó esparcidas sus ideas. Leonardo dejó constancia de la importancia que concede al método en la investigación (adelantándose a autores de la Modernidad tales como Descartes) y los preceptos que establece en su método en nada difieren de las modernas definiciones que hoy utilizamos para hablar del método científico. Leonardo comprendió y utilizó el auténtico método experimental un siglo antes de que Francis Bacón filosofase sobre él. pueden llegar a la certeza absoluta dentro de su propio ámbito. que estudió tarde.por sus propios medios. cuando las encontró necesarias para seguir avanzando. El conocimiento de los escritores antiguos tenía su utilidad como base. y lo mismo le ocurrió con las matemáticas. Nos impiden engañarnos a nosotros mismos o a los demás prometiéndonos resultados que no se pueden conseguir". se basa en la observación. uno de los pasos fundamentales del método científico. Leonardo no escribió tratados metodológicos. Previó el principio de inercia. Dice que las matemáticas. "No hay certeza en la ciencia si no se puede aplicar una de las ciencias matemáticas". Sólo admitía como verdaderos métodos científicos la observación de la naturaleza y la experimentación. ya que pretendo determinar el problema de acuerdo con la experiencia. Este es uno delos tantos pensamientos que daba antes de empezar según el inspirarse: "Al abordar un problema científico. que después Galileo demostró experimentalmente. En cambio. la verdadera ciencia (refiriéndose a las ciencias empíricas). la geometría y la aritmética. En sus apuntes. mostrando luego por qué los cuerpos se ven obligados a actuar de ese modo. pero no como objetivo final. si pudiera aplicarse a ella el razonamiento matemático podría lograrse mayor grado de certeza. pues manejan conceptos mentales ideales de valor universal. siendo ya un hombre maduro. dispongo primero diversos experimentos. Podemos ver en estos textos una clara definición de los procesos de inducción y deducción que hoy explicamos en nuestras clases de Física o Filosofía. y antes de que Galileo lo pusiese en práctica.

Vitrubio tuvo escasa influencia en su época pero no así en el renacimiento ya que fue el punto de partida de sus intentos y la justificación de sus teorías. el canon clásico o ideal de belleza. Trataba de vincular la arquitectura y el cuerpo humano. propagación de las olas sobre la superficie. un aspecto de su interpretación de la naturaleza y del lugar de la humanidad en el "plan global de las cosas". el uso del ángulo de 90º y la simetría son bases grecolatinas de la arquitectura. En época de Augusto escribió los diez tomos de su obra De architectura. dedicada a Francisco I. que la Tierra refleja la luz del sol igual que la luna. su corriente por canal. Milán. Resucitó Leonardo las ideas de Arquímedes sobre la presión de los fluidos y demostró que los líquidos mantienen el mismo nivel en vasos comunicantes. etc. Sigue los estudios del arquitecto Vitrubio (Marcus Vitruvius Pollio) arquitecto romano del siglo I a. y que si se llenan ambos vasos con líquidos diferentes. de mecánica y de sus aplicaciones en arquitectura civil e ingeniería militar. un principio que ya enunciaba Aristóteles y que utilizaron más tarde Bernardino Baldi y Galileo. Su obra fue publicada en Roma en 1486 realizándose numerosas ediciones como la de Fra Giocondo en 1511. En el campo de la astronomía concibió una máquina celeste ajustada a determinadas leyes. a quien Julio Cesar encarga la construcción de máquinas de guerra. El cuadrado es la base de lo clásico: el módulo del cuadrado se emplea en toda la arquitectura clásica. Parece indudable que Leonardo se inspiró en el arquitecto romano. De las olas en el agua pasó a las ondas del aire y a las leyes del sonido. Afirma Leonardo que la tierra es uno de tantos astros y promete demostrar en el libro que proyecta escribir. En él se realiza un estudio anatómico buscando la proporcionalidad del cuerpo humano. Escape de agua por los orificios. lo cual constituía en sí un avance sobre las ideas de Aristóteles sobre las esferas etéreas. Leonardo da Vinci realiza una visión del hombre como centro del Universo al quedar inscrito en un círculo y un cuadrado. sus alturas de nivel serán inversamente proporcionales a sus densidades. adelantándose en esto a Steven de Brujas. que trata de la construcción hidráulica. El hombre de Vitrubio es un claro ejemplo del enfoque globalizador de Leonardo que se desarrolló muy rápidamente durante la segunda mitad de la década de 1480.“como fuente de energía. También se metió con la hidrodinámica. Aprovechó el conocimiento de esta imposibilidad para demostrar la ley de la palanca por el método de las velocidades virtuales. Venecia o la de Cesare Cesarino en 1521. adelantándose a la moderna teoría ondulatoria de la luz. En este dibujo representa las proporciones que podían establecerse en 256 . de cuadrantes solares.c.

en el hipotético caso de un ataque ruso. Internet Los inicios de Internet nos remontan a los años 60. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. y cualquier persona con fines académicos o de investigación podía tener acceso a la red. el hombre era el modelo del universo y lo más importante era vincular lo que descubría en el interior del cuerpo humano con lo que observaba en la naturaleza. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET. Estados Unidos crea una red exclusivamente militar. En plena guerra fría. La NSF (National Science Fundation) crea su propia red informática llamada NSFNET. Para Leonardo. Dos años después. El desarrollo de las redes fue abismal. creando así una gran red con propósitos científicos y académicos. que más tarde absorbe a ARPANET. que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo). una nueva red creada por los Estados Unidos. Esta red se creó en 1969 y se llamó ARPANET. y se crean nuevas redes de libre 257 . ARPANET siguió creciendo y abriéndose al mundo. la proporción áurea). ya contaba con unos 40 ordenadores conectados. se pudiera tener acceso a la información militar desde cualquier punto del país. la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. con el objetivo de que. En principio. Entonces dos investigadores crearon el Protocolo TCP/IP.el cuerpo humano (por ejemplo.

formando el embrión de lo que hoy conocemos como INTERNET. cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamaron World Wide Web (WWW) o telaraña mundial. un programa de computación. El autor William Gibson hizo una revelación: el término "ciberespacio". En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic". Poco después Andreesen encabezó la creación del programa Netscape. transmisión de archivos (P2P. conversaciones en línea (IMSN MESSENGER. En 1985 la Internet ya era una tecnología establecida. descarga directa). eran capaz de leer esas etiquetas para despegar la información. La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. Justificación. 258 . Robert Caillau quien cooperó con el proyecto. En ese tiempo la red era básicamente textual. que permitió acceder con mayor naturalidad a la WWW. Luego. Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. jabber). Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú”) de usar hipervínculos. YIM. El contenido se programaba en un lenguaje de hipertexto con "etiquetas" que asignaban una función a cada parte del contenido. El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100. Yo elegí este tema porque todos hacemos uso de las diferentes aplicaciones del internet sin saber como fue creado incluso no nos preocupamos en mejorarlo sin no exigimos a las empresas que difunden el internet mayor velocidad sin saber lo que esto implica. Ese intérprete sería conocido como "navegador" o "browser". Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso remoto a otras máquinas (SSH y telnet).000 servidores. etc. En el Centro Europeo de Investigaciones Nucleares (CERN). A partir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación.acceso que más tarde se unen a NSFNET. así que el autor se baso en los videojuegos. convirtiéndose en lo que hoy todos conocemos. Con el tiempo la palabra "ciberespacio" terminó por ser sinónimo de Internet. aunque conocida por unos pocos. transferencia de archivos (FTP). un intérprete. La nueva formula permitía vincular información en forma lógica y a través de las redes. correo electrónico (SMTP). P2M. ICQ. AOL.

Internet Engineering Steering Group. • Transport Control Protocol (TCP): protocolo de control de transmisión. y redes más pequeñas que conectan con ellas) que conecta a la vez a todos los tipos de ordenadores. 259 . • User Datagram Protocol (UDP): protocolo del data grama del usuario.Es una combinación de hardware (ordenadores interconectados por vía telefónica o digital) y software (protocolos y lenguajes que hacen que todo funcione).Hoy en día utilizamos el internet para todo. que supervisa tecnología y estándares.. que se utiliza para administrar accesos. etc. • InterNIC. Es una infraestructura de redes a escala mundial (grandes redes principales (tales como MILNET. los comerciantes difunden sus productos vía internet. que asigna direcciones de Internet. de hecho se puede trabaja r desde la comodidad de tu hogar vía internet. y CREN). lo cual hace a este tema muy interesante Internet. Hay unos seis millones de ordenadores que utilizan Internet en todo el mundo y que utilizan varios formatos y protocolos Internet: • Internet Protocol (IP): protocolo que se utiliza para dirigir un paquete de datos desde su fuente a su destino a través de Internet. y la Internet Society. que asigna los números para los accesos. • También: Internet Engineering and Planning Group. Internet tiene varios cuerpos administrativos: • Internet Archite curte Board. NSFNET. que permite enviar un mensaje desde un ordenador a una aplicación que se ejecuta en otro ordenador. • Internet Assigned Numbers Authority.

radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida.C. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente. Bob Taylor. y el investigador del MIT Lawrence G. Roberts conectó un ordenador TX2 en Massachussets con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad. Licklider. Internet es a la vez una oportunidad de difusión mundial. ejecutando programas y recuperando datos a discreción en la máquina remota. lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. teléfono. pero que el sistema telefónico de conmutación de circuitos era totalmente 260 . del Massachussets Institute of Technology. Roberts de la importancia del concepto de trabajo en red. Para explorar este terreno. creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. el concepto era muy parecido a la Internet actual. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos. Los inventos del telégrafo. en Agosto de 1962. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. en 1965. Orígenes de Internet La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J. En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes.Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno. Mientras trabajó en DARPA convenció a sus sucesores Iván Sutherland. universidades y otros centros académicos. El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas.R. en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). En esencia.

la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation. de Bolt Beranek y Newman (BBN).4 Kbps hasta 50 Kbps (5). y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California. publicándolo en 1967. después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET. En Agosto de 1968. El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS. El SRI patrocinó el Network Information 261 . procesadores de mensajes de interfaz). Todo ello ocurrió en Septiembre de 1969. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. en 1964. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. Ocurrió que los trabajos del MIT (1961-67). DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interfase message processors (IMPs. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2. Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global. A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET. A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar. diseño y medición. cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host.inadecuado para esta labor. en Los Angeles (6). su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET.

y en la Universidad de Utah. Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Comunicatión Conference.Crocker acabó el protocolo host a host inicial para ARPANET. cuando el SRI fue conectado a ARPANET. llamado Network Control Protocol (NCP. Esta tradición continúa hasta el día de hoy. almacenar. escribió el software básico de envíorecepción de mensajes de correo electrónico. Así. hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. leer selectivamente. que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs (Request For Comments). cuatro ordenadores host fueron conectados conjuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo. a finales de 1969. los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones. Santa Bárbara. de BBN. En Diciembre de 1970. y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red. En Octubre de 1972. Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar. el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72. el Network Working Group (NWG) liderado por S. Un mes más tarde. Ray Tomlinson. Desde 262 . protocolo de control de red). impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. Incluso en esta primitiva etapa. del T. liderado por Elizabeth (Jake) Feinler. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico.Center. En Marzo. En Julio. así como software adicional de red. Se añadieron dos nodos en la Universidad de California. con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. reenviar y responder a mensajes. Esta fue la primera demostración pública de la nueva tecnología de red.

que puede ofrecer a los usuarios y/u otros proveedores. la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internet working (trabajo entre redes). por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico. aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. Juntamente con la conmutación de paquetes. Era el tradicional método de conmutación de circuitos. éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo). del enorme crecimiento de todas las formas de tráfico persona a persona. pero que pronto incluiría redes de paquetes por satélite. Conceptos iniciales sobre Internet La ARPANET original evolucionó hacia Internet. Este trabajo fue 263 . Hasta ese momento. incluyendo otros proveedores de Internet. empezando por ARPANET como la red pionera de conmutación de paquetes.entonces. había un sólo método para "federar" redes. la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Y aunque había otros métodos limitados de interconexión de redes distintas. la de arquitectura abierta de trabajo en red. En una red de arquitectura abierta. redes de paquetes por radio y otros tipos de red. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web . las interconexiones de propósito especial entre redes constituían otra posibilidad. Internet como ahora la conocemos encierra una idea técnica clave. de diseño casi arbitrario. Bajo este enfoque. es decir. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Internet se basó en la idea de que habría múltiples redes independientes. las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz.

produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían ínter operar. protocolo de control de transmisión /protocolo de Internet). el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). pero más tarde se convirtió por derecho propio en un programa separado. Ideas a prueba DARPA formalizó tres contratos con Stanford (Cerf). Así. Entonces. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. el programa fue llamado Internetting. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP. El equipo de Stanford. radio y satélite y de sus comunidades de investigación iniciales. Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. El protocolo podría eventualmente ser denominado "TransmissonControl Protocol/Internet Protocol" (TCP/IP. dirigido por Cerf. La premisa era que ARPANET no podía ser cambiado en este aspecto. En este modelo. Así como el NCP tendía a actuar como un drive (manejador) de dispositivo.originalmente parte de su programa de paquetería por radio. el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia 264 . Sin embargo. NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. Partiendo de las tres primeras redes ARPANET. Si alguno de los paquetes se perdía. el nuevo protocolo sería más bien un protocolo de comunicaciones.

por último. Cuando aparecieron los ordenadores de sobremesa (desktop). Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. se produjo un cambio de gran importancia para la red y su gestión. www. y luego para el PC de IBM. a escala nacional (pocas redes con muchos ordenadores). El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo. Esta implementación operaba con otras de TCP. sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas. En los años 80. PC y estaciones de trabajo permitió que la naciente Internet floreciera. 265 . Originalmente había un número muy limitado de máquinas. La clase A representa a las redes grandes.acm. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo. desarrollada por Bob Metcalfe en el PARC de Xerox en 1973. la clase B representa redes regionales. La tecnología Ethernet. y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. TCP era demasiado grande y complejo como para funcionar en ordenadores personales. al igual que los grandes sistemas. hubo que definir tres clases de redes (A. La desarrollaron. es la dominante en Internet. Como resultado del crecimiento de Internet. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.org o www. la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores). y demostraba que las estaciones de trabajo.ati. el desarrollo de LAN.es) en direcciones de Internet. las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s.comunidad de investigación y desarrollo [REK78]. pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal. El cambio que supone pasar de unas pocas redes con un modesto número de hosts (el modelo original de ARPANET)) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología. En primer lugar. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Cada expansión afrontó nuevos desafíos. podían ser parte de Internet. primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox). Esto llevó a la invención del DNS (Domain Name System. B y C) para acomodar todas las existentes.

la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora. la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet. Visto en perspectiva. Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. se fue convirtiendo en uno de sus mayores desafíos. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix. Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que evolucionaba Internet. el diseño inicial no era ya capaz de expandirse. incorporando el TCP/IP desarrollado en BBN. protocolo externo de pasarela) usado para mantener unidas las regiones. pero fue sorprendentemente sobre 266 . BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP (Exterior Gateway Protocol. por lo que los requisitos de coste. también lo hacía el tamaño de la tablas de direccionamiento. Classless Interdomain Routing. robustez y escalabilidad. por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP (Interior Gate way Protocol. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers. especialmente el de los host s. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR.El incremento del tamaño de Internet resultó también un desafío para los routers. enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento. la propagación de los cambios en el software. La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix. velocidad de configuración. A medida que el número de redes en Internet se multiplicaba. podían ajustarse a cada situación. El diseño permitía que distintas regiones utilizaran IGP distintos.

El Departamento norteamericano de Energía (DOE. en 1985. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición hacia una infraestructura global Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. que unía los ordenadores centrales del mundo académico siguiendo el paradigma de 267 . David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS (National Science Foundation. y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET. basada en los protocolos de comunicación UUCP de Unix. Fundación Nacional de la Ciencia) de Estados Unidos. La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET. El correo electrónico se empleaba ampliamente entre varias comunidades. y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. a menudo entre distintos sistemas. Los físicos de la NASA continuaron con SPAN y Rick Adrion. Así. mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores. en 1980. Deparment of Energy) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión. TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes.ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").

El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. con aproximadamente 29. estaban empezando a proponerse tecnologías alternativas en el sector comercial. el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb. La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB (Internet Activities Board. una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus". estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos. Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general. De hecho. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. en consecuencia. En su vida de ocho años y medio. todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. 268 . como XNS de Xerox. y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF. DECNet.000 redes en los Estados Unidos. Además. de ahí las escasas presiones por hacer estas redes compatibles y. Es decir.correo electrónico como "postales". Comité de Actividades de Internet).Había visto crecer Internet hasta alcanzar más de 50. junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB. Se adoptaron varias políticas y estrategias para alcanzar estos fines. y la SNA de IBM (8). En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. el hecho de que durante mucho tiempo no lo fueran.000 redes en los cinco continentes y en el espacio exterior. Con la excepción de BITNET y USENET.

Las RFC son 269 .El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990. las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales. tareas en las que continúa hoy en día. En 1969 S. esencial para crear redes. El papel de la documentación Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos. están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo.Crocker. dio un paso clave al establecer la serie de notas RFC (Request For Comments. El efecto de las RFC era crear un bucle positivo de realimentación. cuando la propia ARPANET se disolvió. Con el paso del tiempo. Hoy en día. protocolo de transferencia de ficheros) empezó a usarse.aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. las RFC fueron impresas en papel y distribuidas vía correo "lento". Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. en su papel como Centro de Información en la Red. SRI. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Al principio. desde luego. Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Sin embargo. petición de comentarios). Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación. especialmente a las especificaciones de los protocolos. mantenía los directorios online. con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas. entonces en UCLA. Pero cuando el FTP ( File Transfer Protocol . TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información. Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos. las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP.

lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos.promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Sus objetivos están enfocados a la educación y la investigación académica. El futuro: Internet 2 Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores. El IETF tiene ahora más de 75 grupos de trabajo.vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet. el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común. Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos. estándares técnicos e ingeniería en Internet. independientemente de su localización. El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda. El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet. deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Cuando se alcanza el consenso en el documento. cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Después de empezar a usarse el correo electrónico. y continúan siendo una herramienta importante. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. ¿Qué es Internet del Futuro? Al nombre “Internet del Futuro” se asocian una serie de conceptos y 270 . éste puede ser distribuido como una RFC. Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información.

smartsystems-integration. sobre la que 271 .soa4all. dispositivos e interfaces. • SOA4ALL (http://www. NEM (http://www. mediante nuevos dispositivos. eMOBILITY (www. la Web Semántica o la llamada Web 2.coin-ip.org). el uso de Contexto. ¿Qué hace Atos Origen en Internet del Futuro? Atos Origin participa activamente en la definición y construcción de Internet del Futuro mediante la participación activa en la iniciativa europea que une los esfuerzos de las plataformas tecnológicas europeas NESSI (http://www.org/). ISI (http://www. y EPOSS (http://www. con nuevas formas de interaccionar con el mundo digital. Y además Atos Origin es miembro fundador de la plataforma tecnológica española es Internet.eu/): Arquitectura de referencia para la comunidad de Software & Services en Europa.org/) en la definición de una agenda estratégica de investigación. • NEXOF-RA (http://www.0.neminitiative.isi-initiative.org/).eu. aparece la red de redes de gran velocidad y llegando a todas partes. y ostenta actualmente la vicepresidencia Algunos proyectos de I+D participados por la Comisión Europea en Internet del Futuro son: • COIN (http://www. desde la tradicional cadena de proveedores al ecosistema más avanzado.emobility. Entre estos temas.com/). y todo eso soportado por innovadores modelos de negocio adaptados a este nuevo panorama.nexof-ra. Atos Origin está también presente en la Future Internet Assembly (a través de diferentes proyectos del 6º y 7º programa marco). acceso fácil e inteligente a los distintos tipos de contenidos con mención especial a 3D.tecnologías que abarcan desde la infraestructura de red.nessi-europe. software y aplicaciones que compondrán lo que en unos años conformará el panorama de las Tecnologías de Información y Comunicaciones.org/): Plataforma que integre Arquitecturas Orientadas a Servicios (SOA).eu/): Colaboración e interoperabilidad entre empresas.

). • Multimedia: gestión y búsqueda de activos. en el nuevo escenario que surge del creciente uso de SOA por parte de las empresas en sus infraestructuras IT y especialmente en el outsourcing de servicios. seguimiento y tratamiento remoto (fuera del hospital).eu/): Metodología y herramientas necesarias para asegurar el cumplimiento de los requisitos de seguridad.master-fp7. • Master (http://www. desarrollo de comunicaciones IP para la transmisión de contenidos. fotos/videos de tráfico…. y enfocadas en la prevención.crear y distribuir aplicaciones basadas en servicios ( Internet de los Servicios).myedirector2012. gestión de derechos digitales.eu/): Usos de contexto en tiempo real junto con contextos personalizados de provisión de contenidos para aplicaciones audiovisuales a gran escala. • NextMedia: Coordinar los esfuerzos europeos en Media hacia el Internet del Futuro. • COCKPIT: Colaboración de los ciudadanos en la creación de contenidos de servicio público. • My eDirector (http://www. 272 . así como herramientas para mejorar la eficacia de la monitorización. principalmente de enfermos crónicos y pacientes mayores. infraestructura para Media Market (imágenes médicas. • SARACEN: Definición de una plataforma colaborativa y social de próxima generación para la codificación y distribución de contenidos de media Las prioridades de Atos Origin en Internet del Futuro son: • Sanidad: aplicaciones TIC más interactivas.

mejorar la gestión del consumo de luz. Estos últimos días estuve compartiendo ideas con un amigo de cómo evoluciona la informática e Internet comparándola.• Industria: Desarrollo de aplicaciones TIC para facilitar y optimizar el tráfico de vehículos en las ciudades y el transporte de materiales.. apoyo a minorías. Como consecuencia 273 . con el objetivo facilitar el desarrollo de Internet del Futuro a nivel transaccional • Administración Electrónica (eGov): Internet para el ciudadano • Internet en todas partes:: Apoyo al desarrollo rural y equilibrio geográfico.. • Internet para todos: Nuevos interfaces. agua. Y de esto sabemos mucho en Kriptópolis. Debido a que últimamente no se publican muchas noticias en el sitio. Consideren las siguientes líneas como un “juego” intelectual. salvo las aportadas por el editor. más aún en los últimos días en que se está debatiendo la forma de registro en esta comunidad. en general. • Finanzas: Seguridad en la transmisión de información bancaria personal entre las distintas entidades o centros. limpieza y para impulsar el turismo. Internet de las Cosas. sostenibilidad y medio ambiente Decía el filósofo que un hombre libre es aquel que es capaz de ir hasta el final de su pensamiento. con las redes militares y servicios de inteligencia. Por todos es sabido el origen militar de la red de redes y cómo estas ideas iniciales pasaron al mundo civil lentamente a través de diferentes Universidades y pequeñas (entonces) empresas. me gustaría compartir con los lectores una reflexión.

Si nos centramos en los orígenes de la gran red de inteligencia Norteamérica “Platform” (no entraré en disquisiciones de la evolución de los diferentes nombres de esta red y si la red “Echelon” como tal es un elemento más de la gran red de inteligencia). en España. en la red Echelon la NSA comenzó a probar un prototipo de buscador temático para el que solicitó una patente a principios de la década de los 90. Esto se puede comparar fácilmente con las posibilidades actuales de los buscadores más modernos y. la red militar como tal continuó su evolución. parece que esta tecnología no fue. la definitiva. Por ejemplo.951. Sin embargo. como la red de inteligencia “Interlink”.937. en cierta medida.418. En cualquier caso. no es extraño creer (al menos) en la tan conocida cifra de 10 años de diferencia en cuestión de tecnología civil y militar. 274 . ya a finales de los años 70 diferentes elementos de la red filtraban información buscando palabras claves relacionadas entre sí. comenzó a implantarse de forma masiva en Internet durante la década de los 90.dejarán de funcionar por algún “accidente”. Este programa informático.clara de esta separación. Negar esto. O incluso. semejanzas extraídas de los datos que se publican (supongo verdaderos) de redes privadas secretas. por ejemplo. desde el punto de vista civil. con la implantación de la tan de moda Web semántica. La oficina de patentes norteamericana le otorgó el número 5. es como seguir pensando que Internet es una red descentralizada. por ejemplo. Estos razonamientos se pueden extender a multitud de campos.422). Considerando los presupuestos y la importancia de las mismas. Se puede ver. la patente adquirida por la NSA en 1999 de una “máquina de trascripción del habla” (patente número 5. de cómo evolucionará la informática y la red de redes en un futuro. a los sistemas de reconocimiento de voz de las redes de inteligencia y los diferentes programas de reconocimiento de voz que un usuario puede adquirir en una tienda. para nada. a mi entender. Esta tecnología. Me gustaría ver cómo funcionarían las conexiones de Internet si ciertos Puntos de Interconexión -por ejemplo. basado en un método denominado “análisis de N-gramas” se define como independiente del “idioma o tema de interés” y no “emplea diccionarios o palabras clave”. Proceso conocido por todos si pensamos en la esencia del funcionamiento de los motores de búsqueda (buscadores) de páginas Web. el análisis cuidadoso de ciertos sistemas de inteligencia nos dará una idea clara.

Hasta el 42% de los encuestados se muestra pesimista acerca de nuestra capacidad para controlarla. Esta desconexión del mundo real podría acarrear numerosos problemas. en Dinamarca. esta tecnología le brindará a Internet un potencial de crecimiento ilimitado sin "pérdidas" en la transferencia de información ni en la velocidad. • El inglés seguirá dominando la Red. llamado Internet Cuántico. • El impacto sobre las personas se considera positivo pero se alerta sobre la posibilidad de perder buena parte de la privacidad. crearon una memoria atómica de la luz que en el futuro puede romper las fronteras de la comunicación a través de Internet: consiguieron una red mucho más rápida y segura que la actual. De esta forma. De acuerdo a un artículo publicado en la revista Nature un equipo de científicos daneses han logrado almacenar impulsos de luz en átomos mediante un protocolo que confiere a la información un 70 por ciento de confiabilidad. fue creada dentro de átomos de gas de Cesio logrando retener información por cuatro milisegundos. Dicho estudio se basa en un cuestionario realizado por 742 expertos y éstas son alguna de sus conclusiones: extenso informe • La Red será un negocio próspero y de bajo costo • La dependencia de la tecnología podría convertirse en un problema. alumbran un nuevo tipo de Internet. La memoria atómica. De acuerdo a sus desarrolladores. • Emergerán grupos contrarios a la Red —“refuseniks”— que podrían llegar a utilizar medios violentos para atacarla. los científicos aprovecharon la naturaleza dual de la 275 . (Clarín y otros) Físicos del Instituto Niels Bohr. • Un gran número de trabajadores desempeñará sus funciones en “mundos virtuales”. Para ello. equivalente a la memoria RAM de nuestras computadoras.La compañía Pew Internet and American Life publicó hace un par de días un sobre el futuro de Internet para el año 2020. todo un record en el mundo cuántico. Varios científicos han logrado almacenar impulsos de luz en átomos mediante un protocolo que confiere a la información un 70 por ciento de confiabilidad.

En la actualidad la información transmitida en Internet es llevada a cabo mediante pulsos de luz que durante su recepción son contaminados por un ruido llamado cuántico y que fue predicho por los físicos Neils Bhor y Heinsenberg hace 80 años. Second Life pero bien hecho. Estas son las 10 tendencias. recibir servicios a cambio de atención.luz tal y como lo predice la teoría cuántica. 3. El Internet como en el iPhone o nada. hasta ahora resultaba un serio obstáculo en el desarrollo de las comunicaciones cuánticas. micro formatos. en español: 1. desde búsquedas personalizadas hasta recomendaciones de compra. sindicación. las cosas por su nombre (semántico) y no por código que nadie entiende y a nadie le interesa. redes sociales. agregadotes. OWL. Las 10 tendencias del futuro del Internet Richard MacManus identifica las 10 tendencias para el Internet del futuro en plena época del Web 2. Inteligencia artificial. Muerte a los nerds :-) 2. ya es hora que muera el Internet de texto en teléfonos móviles. 5. Con estos últimos avances. RDF. 276 . Mundos virtuales.0 cuando nos emocionamos y sonreímos con etiquetas. que la memoria cuántica reduce significativamente este ruido. nuevos usos y nuevos servicios. 4. que establece que la luz puede comportarse al mismo tiempo como una partícula u onda. de hecho. mashups y APIs en no mucho tiempo estaremos pensando en cosas totalmente diferentes a medida que el Internet evoluciona y permite la masificación de nuevas herramientas. La Web semántica. se pudo demostrar. Con el incremento en la velocidad de transmisión de datos este ruido que en principio es minúsculo cobra importancia. La economía de la atención. probando que dos propiedades de la luz como lo son su amplitud y fase pueden transferirse a la materia con gran fidelidad. La Web móvil. Los expertos predicen que los primeros sistemas cuánticos podrían ser una realidad en un lapso de entre 10 a 15 años. pero bien hechas.

diversificación. Para materializar esta visión habrá que resolver previamente una serie de desafíos: 277 . Ubicuidad significa la facultad de estar presente al mismo tiempo en todas partes. la presencia de dispositivos electrónicos en red en cualquier faceta de nuestra vida cotidiana. las aplicaciones del futuro involucraran múltiples dispositivos con capacidades ampliamente diferentes entre si. cosida en nuestras ropas. El futuro de Internet pasa por hacer realidad en toda su extensión y amplitud el adjetivo ubicuo. pero el verdadero potencial de las redes móviles radica en la posibilidad de conectar a Internet cualquier ingenio electrónico. 9. Como dice el inventor y visionario Ray Kurzweil en una entrevista recogida en el magnífico artículo The Future of Internet publicado el pasado mes de Abril por Red Herring y de obligada lectura: Los dispositivos actuales desaparecerán. Sitios Web como servicios Web. Europa ya está despuntando. 7. En su lugar. veremos más aplicaciones como iScrobbler. La ubicuidad implica cierta familiaridad. Rich Internet Apps. es decir. facilitando la ubicuidad de Internet y rompiendo los límites actuales. 10. Herramientas que funcionan a base de su contraparte en el Web. Para anticipar como será Internet en el futuro todo pasa por entender la verdadera dimensión de la oportunidad que brindan las redes de comunicaciones de móviles. Personalización al máximo. Twitterrific o Plazer. damos por hecho que está en cualquier sitio y por ello mismo pasa desapercibido. y escrita directamente sobre nuestras retinas desde gafas y lentes de contacto. Video online / TV por internet. Web internacional. Es decir. Algo ubicuo implica también que requiere muy poco esfuerzo consciente para ser utilizado.6. la electrónica estará embebida en nuestro entorno. Estados Unidos perderá peso en Internet. Los dispositivos dejarán de ser los extremos de la Red para pasar a ser los nodos de la Red. No es la primera vez que lo destacamos. más allá de los PCs e incluso más allá de los actuales dispositivos móviles tal y como los conocemos hoy. 8.

nunca una ruptura. BernersLee. De hecho. no era exactamente la que hoy conocemos. Tim Berners-Lee. las soluciones deberán estar basadas en las tecnologías Web actuales para no romper la compatibilidad con la Red actual. En este sentido. titulado precisamente The Semantic Web. no era exactamente la que hoy conocemos. de la Red actual. En la práctica esto significa que las máquinas —los ordenadores personales o cualquier otro dispositivo conectado a Internet— podrán realizar. la importancia de desarrollos que actualmente se están llevando acabo en áreas como la definición de interfaces para obtener información del contexto (Delivery Context Interfaces). Berners-Lee había pensado en algo todavía más revolucionario y que está aún por llegar: la Web semántica. infinidad de tareas 278 . James Hendler y Ora Lassila. El proceso debe ser una evolución. La Internet que había imaginado en 1989 el creador de la World Wide Web. Hablan de una Internet en la que los ordenadores no sólo son capaces de presentar la información contenida en las páginas Web. como hacen ahora. ¿Qué se entiende por Web semántica? Tres investigadores. lo han explicado en un artículo publicado en el número de mayo de la revista American Scientific. casi sin necesidad de intervención humana. Berners-Lee había pensado en algo todavía más revolucionario y que está aún por llegar: la Web semántica. sino que además pueden "entender" dicha información.• Simplificación del desarrollo de aplicaciones multi-dispositivo (cada vez más "multi") • Adaptación dinámica al contexto • Coordinación entre dispositivos • Seguridad Para dar respuestas a estos desafíos. intercambio asíncrono de información (AJAX) o la descripción de los recursos a disposición de las aplicaciones (web semántica) son buenos ejemplos de la evolución que debe seguir la Web para convertirla en omnipresente. Tim Berners-Lee. El futuro de Internet tiene nombre: la Web semántica La Internet que había imaginado en 1989 el creador de la World Wide Web. De hecho.

incluyendo las visitas de su madre. Nuevas tecnologías Pero para llegar a esa nueva World Wide Web hay que dar una serie de pasos que no son sencillos. Para que esto sea una realidad no será necesario que nuestros ordenadores posean la inteligencia artificial que tenía Hal en la novela de Arthur C. Será suficiente con que los contenidos se introduzcan en las páginas Web utilizando un programa de escritura de Web semánticas. Dos hermanos tienen que ajustar su calendario para acompañar a su madre a unas sesiones de rehabilitación ordenadas por los médicos. lo que hasta ahora había sido básicamente "un medio de documentos para personas" pasará a ser un sistema de datos e información que se podrán procesar automáticamente. Hendler y Lassila inician su artículo exponiendo una situación cotidiana resuelta eficazmente gracias a una hipotética Web semántica funcionando a pleno rendimiento.que simplificarán nuestra vida. será posible que "los agentes de software que deambulan de una página a otra puedan realizar tareas sofisticadas para los usuarios". Así. posibilitando que los ordenadores y las personas trabajen en cooperación". y resuelven el problema. no para que lo puedan manipular con sentido unos programas informáticos". Uno de los retos principales que afronta la Web semántica es el de proveer un lenguaje "que permita la exportación a la Web de las reglas de cualquier sistema de representación del conocimiento". Según explican estos tres investigadores. Los grupos que trabajan en la creación de esta nueva Web semántica deben solucionar. explican los autores. "la mayor parte del contenido que hoy aparece en Internet está diseñado para ser leído por las personas. Clarke "2001: una odisea en el espacio". Caso práctico Berners-Lee. 279 . "La Web semántica". Por ejemplo. Para ello utilizan un agente electrónico que revisa sus agendas para las próximas semanas y las combina con las horas disponibles en los centros de rehabilitación más cercanos cubiertos por el seguro médico familiar. la difícil papeleta de "añadir lógica a la Web". "no es una web aparte sino una extensión de la actual en la que la información tiene un significado bien definido. por tanto. Y lo hacen gracias "no a la World Wide Web de hoy sino a la Web semántica en la que se convertirá mañana". En pocos minutos consiguen programar de nuevo sus agendas.

si está pensando en cocinar algo o si lo que quiere es encontrar a alguien con ese nombre. cuenta con un grupo de trabajo dedicado por entero a la Web semántica. según explican estos tres investigadores de Internet. facilitando la colaboración entre equipos investigadores de un mismo tema que se encuentran en puntos muy distantes del planeta. Cuando alguien introduce en un buscador la palabra cook. para el ordenador". o contenido semántico. que nuestro microondas preparado para Internet consulte directamente al fabricante de un alimento congelado las condiciones óptimas para su cocción y proceda a la misma. Los agentes también mejorarán su eficacia cuando los contenidos de la Web tengan significado semántico. El lenguaje XML "permite a los usuarios añadir una estructura arbitraria a sus documentos. Al mismo tiempo. que preferirán simplemente saber que la existencia de una Web semántica permitirá. Berners-Lee. las búsquedas muy precisas arrojarán mejores resultados cuando la Web semántica sea una realidad. Al mismo tiempo. pero no dice nada acerca del significado de dicha estructura". "El problema es que la palabra cook no tiene sentido. Otro elemento clave de la Web semántica son las "ontologías". beneficiados En su artículo. Estos conceptos pueden resultar ininteligibles para buena parte de los usuarios de Internet. "si está correctamente diseñada. Esta es la tarea que se intenta resolver con el lenguaje RDF. la web semántica puede ayudar a la evolución del conocimiento humano en general".El desarrollo de la Web semántica pasa también por la adopción de diferentes tecnologías. Por ejemplo. descritas por los autores como documentos o ficheros "que formalmente definen las relaciones entre términos". dirigido por Tim Berners-Lee. un marco en el que es posible describir la información para que la procesen las máquinas. Grupos de investigación El World Wide Web Consortium (W3C). Buscadores y agentes. el buscador devolverá innumerables resultados que deberán ser filtrados por el usuario ya que no sabe si el usuario está buscando un chef. dos de las cuales ya están en marcha: el extensible Markup Language (XML) y el Resource Description Framework (RDF). Hendler y Lassila ponen algunos ejemplos de las ventajas que tendrá la existencia de una Web semántica. por ejemplo. En la página de este grupo se afirma que "la Web semántica es una visión: la idea de tener datos en la Web definidos y enlazados de forma 280 . ya que será posible combinar informaciones que residen en diferentes páginas Web que ahora no tienen ninguna conexión entre ellas.

Varios grupos de investigación interesados en el avance de la Web semántica mantienen operativo el nodo SemanticWeb. Al mismo tiempo.que puedan ser utilizados por máquinas no sólo con el fin de presentarlos sino también para la automatización. donde se pueden seguir los avances en esta materia.org. en Alemania. donde ha estado investigando sobre representación del conocimiento en la Web. es el responsable de investigación informática basada en agentes de la Defense Advanced Research Projects Agency (DARPA). En la investigación de este tema comprendí la necesidad que tenían los militares de hacer una red secreta debido alas guerras. Tres de estos grupos (OntoAgents. también se afirma en esta página que "la Web sólo alcanzará su pleno potencial si se convierte en un lugar donde la información puede ser compartida y procesada tanto por herramientas automáticas como por la gente". con la idea de que el nodo se convierta en un "portal automático de comunidad" que sirva de escaparate de esta tecnología. mientras que otro (Ontobroker) pertenece a la Universidad de Karlsruhe. como nosotros los estudiantes tenemos soporte en internet para llevar a cabo nuestras actividades escolares. 281 . Junto a se equipo de investigación desarrolló SHOE. Scalable Knowledge Composition y Protégé) se encuentran en la Universidad de Stanford. integración y reutilización de la información a través de varias aplicaciones". el primer lenguaje de representación del conocimiento basado en Web. El objetivo de SemanticWeb.org es demostrar las posibilidades que ofrece el concepto de Web semántica. en California. Conclusión. James Hendler da clases de informática en la Universidad de Maryland. Por su parte. Lassila fue una de las creadoras del RDF. pero gracias a esto la sociedad adquirió una de los mejores inventos por el hombre hoy en día todos hacemos uso de este como recurso. Asimismo. Ora Lassila es investigadora del Nokia Research Center de Boston y miembro del consejo asesor del W3C.

ya que las direcciones o URLs por lo general comienzan utilizándolo). por medio de la banda ancha.está en todas las partes donde exista un ordenador con conectividad a esta red. debemos acudir a la definición de Internet y así comprender un poco más sobre sus utilidades. Con su aparición. la Internet es un conjunto de computadoras conectadas entre si. También es conocida como la World Wide Web (www. Para referirnos a ella además se utiliza el término "web" en inglés. se puede extraer información a una escala nunca antes vista. la radio. por este motivo es que no se puede responder a la pregunta de donde está la Internet físicamente . Internet se asume como el gran paso hacia el futuro. la definición de Internet admite que se la conoce vulgarmente con el nombre de “autopista de la información” debido a que es una “ruta” en donde podemos encontrar casi todo lo que buscamos en diferentes formatos. las cuales por medio de un módem y hoy en día. y por supuesto orientadas a los negocios. Cada invento o creación tiene un aporte tecnológico: la televisión. millones de computadoras se pueden conectar entre sí. esto puede verse claramente si hacemos un paneo observando cómo el ser humano se desarrolló hasta el día de hoy. prefijo bastante conocido por los que la navegan. toda empresa lo suficientemente tecnologizada cuenta con una página en Internet. abierta al público la cual es capaz de conectar tanto a organismos oficiales como educativos y empresariales. que contienen información de la más diversa índole. Pero ante de ahondar en la importancia de este instrumento virtual. la computadora. de hecho. De esta. que para permitir la conexión entre computadoras opera a través de un protocolo de comunicaciones. Esta palabra suele referirse a una interconexión en particular. y su estructura actual data de la década de los 90`. la revolución de la información terminó definitivamente por despegar a escala masiva. es que además de ser algo novedoso era al mismo tiempo impensado. por la cual. 282 . acceden a millones de páginas. Digamos entonces que el Internet es la red de redes. educativas. El Internet es una red informática descentralizada.INTRODUCCION Los científicos y antropólogos afirman que el hombre se diferencia de los animales por su capacidad de evolucionar y de crear. fueron los primeros indicios que nos mostraban que la evolución no sólo es inminente sino que continúa. compartiendo una determinada cantidad de contenidos. ni en nuestros más recónditos sueños podíamos imaginar que todos los medios de comunicación eran capaces de fusionarse en un solo artefacto. una interconexión de redes informáticas que le permite a las computadoras conectadas comunicarse directamente entre sí. Existen páginas de carácter personal. En palabras sencillas. Son millones las personas. Entendemos por Internet. entre otros. refiriéndose a una "tela de araña" para representar esta red de conexiones.

muchas empresas. los cuales han revolucionado la manera de comunicarse. Internet ha cambiado absolutamente la totalidad de los hábitos de los seres humanos. utilizando por supuesto un leguaje común para esto (en este caso el protocolo FTP o File Transfer Protocol) o enviar correos electrónicos (utilizando el protocolo SMTP o Simple Mail Transfer Protocol). existe una aplicación asociada e estos correos electrónicos conocida como la mensajería instantánea. Y es que la carrera espacial. y esto se debe a que esta herramienta es impredecible. independiente de donde se encuentre. pero no brinda información sobre su futura evolución. incluso. como los ya famosos chat e IRC (Internet Relay chat). Asimismo. para apodar a estas redes. era probable encontrar individuos sin cuentas de e-mail. es que el correo electrónico es altamente utilizado. a base de los protocolos TCP y el IP. mucho antes. dentro de la comunicación interna de las organizaciones estatales o privadas. aunque ya. La definición de Internet suele ser mayormente técnica pero existen muchos aspectos relevantes que ésta no abarca. el diario y la radio se escuchan desde los ordenadores. y han dejado como prácticamente obsoleto el antiguo sistema de correo. que se creo la palabra Internet. entre ellos su evolución y el impacto social que este medio de comunicación ha generado. un tanto de lado el teléfono para sus actividades comerciales. el hombre es capaz de crear y evolucionar de formas astronómicas. Lo que sí podemos afirmar es que los costos para su conexión serán cada vez más accesibles y por eso se convertirá en el principal medio masivo de 283 . mediante la cual se puede mantener una conversación por medio de texto en línea Con respecto al desarrollo de el Internet. está conformada por un gran número de computadores conectados entre sí. Asimismo. Internet se dispone a apropiarse de casi todo el mercado y decimos esto porque son cada vez más las personas que poseen conexiones a la web. La definición de Internet asegura que ésta ha sido revolucionaria. había dado indicios al construir los ordenadores. años atrás. han dejado. y lo ha demostrado cuando inventó este espacio virtual. las películas no se alquilan con tanta frecuencia en los videos clubs. Como mencionamos al comienzo de esta redacción. actualmente eso es casi imposible. llevó a que lentamente se fuera fraguando la Internet. en parte una pugna de poder. De esta manera. Fue durante aquel proceso investigativo. también podemos desarrollar conversaciones en línea. el Internet. Con ellos podemos comunicarnos de manera casi inmediata. con cualquier persona del mundo. Desde hace ya bastante tiempo. utilizando protocolos especiales para poder comunicarse. se puede remontar.Por medio de Internet. este se remonta a 1973. etc. Esta red informática a nivel mundial. Estos acontecimientos no son casuales. donde se comenzó a estudiar la factibilidad técnica de desarrollar redes interconectadas. a unos años antes que surgiera la misma como una popular red pública o mundial. entre los Estados Unidos y la Unión Soviética. podemos realizar transferencia de archivos .el correo no se utiliza de la misma forma. El Internet y su historia.

Las generaciones más jóvenes son incapaces de concebir una época en la que no pudieran compartir fotos. sino también en las aplicaciones. ver vídeos o comprar en línea. el fax. Pero si algo es seguro. hace ya un siglo. 284 . Internet es la manifestación actual de todos estos adelantos y el vórtice alrededor del cual gira el torbellino de cambios y de mejoras. INTERNET HOY EN DÍA Las aplicaciones de las tecnologías de la comunicación que responden a las necesidades de nuestra industria y nuestra sociedad han experimentado cambios significativos desde los albores de las telecomunicaciones. Internet tiene ante sí un futuro flexible. los gráficos y los medios de streaming. Es imposible atrasar el reloj hasta el mundo que existía antes de Internet. así como de la voz. hasta el día de hoy. los usuarios. propició un entorno idóneo para su expansión masiva en sus primeros años. es que será una red con movilidad absoluta. basada en la apertura y en la comunidad. El secreto del poder de Internet reside en el hecho de que engloba a todo el mundo y les anima a compartir con los demás sus ideas más creativas. Ha conseguido penetrar en nuestras instituciones. comunidades y sites que estén mejor optimizados. los servicios y las innovaciones tecnológicas. adaptabilidad. sus conocimientos y su trabajo de forma interactiva a través de Internet. La filosofía fundacional de Internet. se estima que también serán más baratos los dominios y que la mayor parte de la publicidad se transmitirá hacia los blogs. la imagen. más de mil millones de personas utilizan Internet en todo el planeta. y la forma que adopte dependerá de cómo lo definamos tanto nosotros como las circunstancias.comunicación. En la actualidad. los datos. chatear con los amigos. personalización. videoadicción y sorprendentes aplicaciones. La infraestructura digital de cable e inalámbrica de la que disfrutamos hoy en día y que sirve a una vastísima comunidad de usuarios de todo el mundo. el texto. debemos diferenciar. Internet lidera el avance de la sociedad de la información del siglo XXI. como nunca antes se hubieran imaginado. el vídeo. y ha cambiado nuestro comportamiento y nuestras actitudes de manera fundamental. ubicuidad. Allí tendremos combinados todos los servicios necesarios y que. no sólo en lo que a la infraestructura se refiere. ha sido testigo de la convergencia de las tecnologías digitales y analógicas.

Sin embargo. HISTORIA DE LA INTERNET Para entender la historia y desarrollo de la internet hay que tener en cuenta el desarrollo de las comunicaciones inalambricas por lo que decidimos incluir una breve historia sobre ellas. La abordamos desde el punto de vista de las comunicaciones como una red de ordenadores (servidores) permanentemente conectados y a la espera de solicitudes de servicios de otras máquinas (clientes) a través de las redes de comunicación. Cuando el usuario inicia una aplicación cliente (por ejemplo navegador Explorer). pero por una larga serie de motivos todos esos protocolos se han ido abandonando en favor de Internet. desarrolladas e implantadas hace ya muchos años por auténticos visionarios. La aplicación cliente es la encargada de interactuar con el usuario y de mostrar los resultados de la petición. en dos niveles distintos. DEFINICION PRECISA DE INTERNET Es difícil dar una definición que refleje de forma precisa una realidad tan compleja. El servidor siempre está a la espera de peticiones de servicio. Con demasiada frecuencia olvidamos que muchas de las tecnologías de las que disfrutamos hoy en día fueron concebidas. a medida que el mundo avanza hacia una sociedad en la que personas. aplicaciones y servicios están permanentemente conectados. ¿PARA QUE SIRVE LA INTERNET? Es difícil a estas alturas imaginarse el mundo sin Internet. ésta contacta con un servidor y le envía una petición de servicio quedando a la espera de la respuesta. resulta útil echar la vista atrás y repasar los pioneros y las fuerzas motrices que hicieron posible que hoy disfrutemos de estos maravillosos avances. Es cierto que antes de la globalización de Internet ya existían redes que conectaban otras redes entre sí mediante otros protocolos (el más conocido quizás sea el X-25). hasta el punto en que un fallo en toda la red de unas horas podría causar unos efectos devastadores en la economía y en otros sectores. ya que son muchas las cosas que de ella depende. esa es función del programa cliente. En general el que inicia una comunicación actúa como cliente y el que está a la espera actúa como servidor. Volvamos al pasado y exploremos la herencia tecnológica que hemos recibido antes de lanzarnos a una visión de hacia dónde nos dirigimos. Recibe las peticiones de servicio y retorna los resultados a la aplicación cliente. EL PARADIGMA CLIENTE/SERVIDOR: Este paradigma sitúa a los ordenadores que establecen una comunicación. Para comprender el funcionamiento de internet es necesario entender lo que significa ordenador servidor y ordenador cliente. dispositivos. 285 . El servidor no interacciona con el usuario.

que los campos electromagnéticos se expanden a la velocidad de la luz en forma de ondas polarizadas). Maxwell fue capaz de anticipar matemáticamente la radiación de las ondas electromagnéticas (esto es. Desgraciadamente. Einstein exclamó: "La especial teoría de la relatividad debe sus orígenes a las ecuaciones de Maxwell sobre los campos electromagnéticos". En 1878. antes de que su predicción pudiera demostrarse experimentalmente. Hughes logró enviar y recibir mensajes en código Morse. David E.• Breve historia de las comunicaciones inalámbricas. Alexander Popov construyó en Rusia el primer receptor de radio. en 1888. Jagadish Chandra Bose realizó una transmisión radiofónica de corto alcance en Calcuta. Un año más tarde. En referencia al trabajo de Maxwell. utilizando microondas con una longitud de onda milimétrica. que supuso el primer paso hacia la radiotransmisión de paquetes y la creación de la red de telefonía móvil actual. no obstante. que es uno de los componentes importantes de Internet. que a su vez se basaba en el descubrimiento realizado en 1890 por el físico francés Édouard Branly. Heinrich Hertz demostró la existencia de las ondas de radio utilizando un transmisor y un receptor primitivos. Maxwell falleció en 1879. Oliver Lodge logró transmitir señales de radio en la Universidad de Oxford mediante un aparato conocido como "coherer". Su investigación sobre las señales inalámbricas remotas fue la primera en la que se empleó una conexión con 286 . No pretendemos entrar con profundidad en este tema. En un trabajo asombroso. Las comunicaciones inalámbricas cuentan con una larga historia. India. dando a las ondas de radio su primera aplicación práctica. Tesla había llevado a cabo el mismo expermiento el año anterior y Marconi lo realizaría al año siguiente. sino que nos limitaremos a repasar someramente el desarrollo de la radio. en Rusia. La demostración experimental llegó poco después de la muerte de Maxwell. La primera referencia que tenemos son los documentos que investigan la relación entre electricidad y magnetismo (especialmente el célebre experimento realizado en 1820 por Hans Christian Orsted en el que se demostró que un cable conductor de corriente podía desviar la aguja magnetizada de una brújula). También en 1894. Más adelante. Un hecho determinante fue la predicción matemática de la existencia de las ondas de radio que realizó James Clerk Maxwell en 1864. que se presentó públicamente en 1895. y más adelante desarrolló el primer servicio de radio fuera del laboratorio. No fue hasta 1893 cuando el siempre innovador Nikola Tesla realizó los primeros experimentos de "telegrafía inalámbrica". En 1894.

confirmando la patente de Tesla. Todas 287 . la Oficina de Patentes estadounidense cambió de opinión y le concedió la patente. a unos 21 kilómetros. finalmente. A Marconi se le denegó la patente estadounidense en 1900. Reginald Fessenden realizó la primera transmisión de voz a través de la radio. Aunque trabajaban y pensaban de forma independiente. el Tribunal Supremo de los Estados Unidos revocó esta decisión. adelantando así la existencia de los semiconductores de tipo P y de tipo N. entre las que se cuentan la telefonía móvil digital. y en 1899. hasta la era digital. Sin embargo. Mucho más adelante. En 1900. la transmisión de la primera señal radiofónica trasatlántica. En 1906. en 1943. la tecnología inalámbrica no se empezó a desarrollar en importantes direcciones. En 1896. En 1897 Marconi obtuvo una patente británica (presentada en 1896) para el telégrafo inalámbrico. y fundó la primera emisora de radio del mundo. En 1900 Nikola Tesla obtuvo las patentes estadounidenses (presentadas en 1897) para las técnicas básicas que mejorarían sustancialmente las transmisiones radiofónicas. una conexión entre las dos orillas del Canal de la Mancha (utilizando un oscilador de Tesla) en 1899 y. Inglaterra. la radio llegó a todos los rincones del planeta. Guglielmo Marconi logró transmitir señales inalámbricas a una distancia de más de un kilómetro y medio del laboratorio que tenía instalado en su casa en las afueras de Bolonia. que ahora se conoce como la válvula amplificadora de triodo. las redes móviles ad hoc la radiotransmisión de paquetes de datos. En 1895. las plataformas inalámbricas portátiles.un semiconductor para detectar las ondas de radio. a una distancia de más 3. en 1901. un componente esencial de los sistemas de radio. a más de 48 kilómetros. En 1909. Éste fue el pistoletazo de salida para una serie de experimentos para transmitir ondas de radio a distancias cada vez mayores. Marconi obtuvo el premio Nobel de Física por sus contribuciones a la radio. y de nuevo en los tres años siguientes. en 1898. Gracias a estos progresos. sus descubrimientos se sincronizaron desde varios continentes. las redes de acceso inalámbricas. Resulta interesante que los pioneros de la radio se influyeron mutuamente en el descubrimiento de ideas y la adopción de líneas de investigación. Lee de Forest inventó el "audión". Sin embargo.500 kilómetros. Tesla consiguió transmitir señales inalámbricas a una distancia de 48 kilómetros. Popov estableció una comunicación desde un barco hasta la estación costera que se encontraba a una distancia de más de 9 kilómetros. etc. que se convertiría más adelante en la empresa Marconi Wireless Telegraph Company. en las últimas décadas del siglo XX. en 1904. en 1897 Marconi realizó una serie de experimentos de transmisión por radio a través de una conexión entre la isla de Wight y Bournemouth. Italia.

Orígenes de Internet La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por Joseph Carl Robnett Licklider (J. Roberts de la importancia del concepto de trabajo en red. el concepto era muy parecido a la Internet actual. Luego de su creación fue utilizado por el gobierno.C. radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. universidades y otros centros académicos. ejecutando programas y recuperando datos a discreción en la máquina remota.L). Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes.ellas han contribuido a que Internet exista tal y como la conocemos hoy. pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta 288 . en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente. A continuación emprenderemos un viaje por la historia de Internet. En esencia. Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad. Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Internet es a la vez una oportunidad de difusión mundial. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland. Los inventos del telégrafo. teléfono. en 1965.R. un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. en Agosto de 1962. Bob Taylor. del Massachusetts Institute of Technology. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. y el investigador del MIT Lawrence G. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos. Para explorar este terreno.

cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host . En Agosto de 1968. después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET. DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs. Ocurrió que los trabajos del MIT (1961-67). En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. procesadores de mensajes de interfaz). El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS. y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California. un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart. El SRI patrocinó el Network Information Center . La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2. liderado por Elizabeth (Jake) Feinler. su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. en 1964.labor. que desarrolló funciones tales 289 . A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis. RAND (1962-65) y NPL (196467) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. publicándolo en 1967. Todo ello ocurrió en Septiembre de 1969. diseño y medición. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar. la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global. de Bolt Beranek y Newman (BBN).4 Kbps hasta 50 Kbps (5). en Los Angeles (6).

y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. escribió el software básico de envíorecepción de mensajes de correo electrónico. reenviar y responder a mensajes. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red. Ray Tomlinson. la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . el Network Working Group (NWG) liderado por S. En Octubre de 1972. de BBN. Un mes más tarde. del T. cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar. En Diciembre de 1970. Desde entonces. leer selectivamente. y en la Universidad de Utah. impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. llamado Network Control Protocol (NCP. En Julio.Crocker acabó el protocolo host a host inicial para ARPANET. Fue precursora del tipo de actividad que observamos hoy día en la 290 . Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo. Se añadieron dos nodos en la Universidad de California. los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones. almacenar. Así. protocolo de control de red).como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ). a finales de 1969. el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. En Marzo. así como software adicional de red. Incluso en esta primitiva etapa. Esta tradición continúa hasta el día de hoy. cuando el SRI fue conectado a ARPANET. Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72. con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones. Esta fue la primera demostración pública de la nueva tecnología de red. Santa Bárbara.

Conceptos iniciales sobre Internetting La ARPANET original evolucionó hacia Internet. redes de paquetes por radio y otros tipos de red. del enorme crecimiento de todas las formas de tráfico persona a persona.World Wide Web . la de arquitectura abierta de trabajo en red. empezando por ARPANET como la red pionera de conmutación de paquetes. el programa fue llamado Internetting . es decir. pero que pronto incluiría redes de paquetes por satélite. En una red de arquitectura abierta. las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. Y aunque había otros métodos limitados de interconexión de redes distintas. No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico. había un sólo método para "federar" redes. por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. las interconexiones de propósito especial entre redes constituían otra posibilidad. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). pero más tarde se convirtió por derecho propio en un programa separado. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. Era el tradicional método de conmutación de circuitos. aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. que puede ofrecer a los usuarios y/u otros proveedores. éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo). de diseño casi arbitrario. Internet se basó en la idea de que habría múltiples redes independientes. Bajo este enfoque. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a 291 . Este trabajo fue originalmente parte de su programa de paquetería por radio. Entonces. incluyendo otros proveedores de Internet. Internet como ahora la conocemos encierra una idea técnica clave. Hasta ese momento. Juntamente con la conmutación de paquetes.

Cuando aparecieron los ordenadores de sobremesa (desktop). Así. BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). el nuevo protocolo sería más bien un protocolo de comunicaciones. Si alguno de los paquetes se perdía. En este modelo. Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. La premisa era que ARPANET no podía ser cambiado en este aspecto. Así como el NCP tendía a actuar como un driver (manejador) de dispositivo. protocolo de control de transmisión /protocolo de Internet). el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP. Cada expansión afrontó nuevos desafíos. dirigido por Cerf. TCP era demasiado grande y complejo como para funcionar en ordenadores personales. NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP.extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Partiendo de las tres primeras redes ARPANET. El equipo de Stanford. radio y satélite y de sus comunidades de investigación iniciales. Sin embargo. el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. David Clark y su 292 . Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP. Ideas a prueba DARPA formalizó tres contratos con Stanford (Cerf). produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar. Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta.

B y C) para acomodar todas las existentes. Esto llevó a la invención del DNS ( Domain Name System . La clase A representa a las redes grandes. el desarrollo de LAN. www. y luego para el PC de IBM. pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal. La desarrollaron. por último. por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas. Esta implementación operaba con otras de TCP. a escala nacional (pocas redes con muchos ordenadores). Como resultado del crecimiento de Internet. sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. La tecnología Ethernet. 293 . El cambio que supone pasar de unas pocas redes con un modesto número de hosts (el modelo original de ARPANET)) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología. En los años 80. PC y estaciones de trabajo permitió que la naciente Internet floreciera. las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo. se produjo un cambio de gran importancia para la red y su gestión. primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox). Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. En primer lugar. podían ser parte de Internet. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol . y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. desarrollada por Bob Metcalfe en el PARC de Xerox en 1973.ati. por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol .org o www. la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores). es la dominante en Internet. Originalmente había un número muy limitado de máquinas. el diseño inicial no era ya capaz de expandirse.acm.equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible. hubo que definir tres clases de redes (A. A medida que el número de redes en Internet se multiplicaba.es ) en direcciones de Internet. al igual que los grandes sistemas. protocolo externo de pasarela) usado para mantener unidas las regiones. la clase B representa redes regionales. El incremento del tamaño de Internet resultó también un desafío para los routers . y demostraba que las estaciones de trabajo. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo.

294 . la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers . Classless Interdomain Routing . se fue convirtiendo en uno de sus mayores desafíos. A medida que evolucionaba Internet. Visto en perspectiva. en 1980. enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix. Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. también lo hacía el tamaño de la tablas de direccionamiento. podían ajustarse a cada situación. La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.El diseño permitía que distintas regiones utilizaran IGP distintos. especialmente el de los host s. TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes. la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora. por lo que los requisitos de coste. robustez y escalabilidad. Así. Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix. velocidad de configuración. incorporando el TCP/IP desarrollado en BBN. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. en 1985. la propagación de los cambios en el software. pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").

El Departamento norteamericano de Energía (DoE. Además. De hecho. basada en los protocolos de comunicación UUCP de Unix. Con la excepción de BITNET y USENET. que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas. Es decir. mientras que los físicos de altas energías fueron los encargados de construir HEPNet. DECNet. El correo electrónico se empleaba ampliamente entre varias comunidades. 295 . una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus". estaban empezando a proponerse tecnologías alternativas en el sector comercial. y la SNA de IBM (8).y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. a menudo entre distintos sistemas. en consecuencia. estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas. y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET. Fundación Nacional de la Ciencia) de Estados Unidos. Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión. La transición hacia una infraestructura global Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. Los físicos de la NASA continuaron con SPAN y Rick Adrion. todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS ( National Science Foundation . de ahí las escasas presiones por hacer estas redes compatibles y. Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. como XNS de Xerox. el hecho de que durante mucho tiempo no lo fueran.

TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información. El papel de la documentación Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos. Se adoptaron varias políticas y estrategias para alcanzar estos fines.000 redes en los Estados Unidos. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general. El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. esencial para crear redes. especialmente a las especificaciones de los protocolos. el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb. En su vida de ocho años y medio. cuando la propia ARPANET se disolvió.Había visto crecer Internet hasta alcanzar más de 50. junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB.000 redes en los cinco continentes y en el espacio exterior. La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board . Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF. el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas. Sin embargo.En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Comité de Actividades de Internet). 296 . con aproximadamente 29.

promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas. El IETF tiene ahora más de 75 grupos de trabajo. independientemente de su localización. dio un paso clave al establecer la serie de notas RFC ( Request For Comments . Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.Crocker. las RFC fueron impresas en papel y distribuidas vía correo "lento". Cada 297 . El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación. Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos. Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. mantenía los directorios online . protocolo de transferencia de ficheros) empezó a usarse. Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos.aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. desde luego. las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales. las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP. El efecto de las RFC era crear un bucle positivo de realimentación. SRI.En 1969 S. cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Hoy en día. están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común. Después de empezar a usarse el correo electrónico. y continúan siendo una herramienta importante. tareas en las que continúa hoy en día. estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. entonces en UCLA. Con el paso del tiempo. El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet. lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos. en su papel como Centro de Información en la Red. Al principio. con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Pero cuando el FTP ( File Transfer Protocol . petición de comentarios).

Cuando se alcanza el consenso en el documento. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda. Sus objetivos están enfocados a la educación y la investigación académica. 298 . deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. El futuro: Internet 2 Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores. Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información. éste puede ser distribuido como una RFC.

Al principio sé hacia el programa sobre papel y. su terminología especial y una sintaxis particular. En la actualidad hay muchos tipos de lenguajes de programación. Los ordenadores se programaban en lenguaje máquina pero las dificultades que esto llevaba. utilizando términos y símbolos relacionados con el tipo de problema que se debe resolver. necesitan un lenguaje especifico pensado por el hombre para ellas. Estos lenguajes permiten. etc. Además. Los primeros en aparecer fueron los ensambladores. pero pronto aparecieron programas que se ensamblaban automáticamente. es decir. Por ejemplo. Un lenguaje esta definido por una gramática o conjunto de reglas que se aplican a un alfabeto constituido por el conjunto de símbolos utilizados. después se traducía a mano con la ayuda de unas tablas. en la década de los 40. en cambio. cuya localización era larga y difícil. junto con la enorme facilidad de cometer errores. la posibilidad de usar lenguajes simbólicos. se orientan al campo empresarial y al manejo de textos y ficheros. escribir las operaciones que son necesarias realizar para resolver el problema de un modo parecido a como se escribiría. mediante el empleo de herramientas que brinda la informática. a través de los cuales podemos comunicarnos con el hardware y dar así las ordenes adecuadas para la realización de un determinado proceso. cada uno de ellos con su propia gramática. FORTRAN. PASCAL. ). hicieron que. PL/1. y se introducían en la máquina en forma numérica. existen algunos creados especialmente para aplicaciones científicas o matemáticas generales (BASIC. Los distintos niveles de programación existentes nos permiten acceder al 299 . o muy relacionados con el lenguaje máquina del ordenador (como el C y el ASSEMBLER). son en realidad fundamentalmente gestores de información (COBOL. por un lado. Dada la dificultad de comunicación entre el computador y el programador. son maquinas y como tales. de formaron los lenguajes de programación que hacen posible la comunicación con el microprocesador. necesitan constantemente interpretar todas las instrucciones que reciben. fundamentalmente consistía en dar un nombre a cada tipo de instrucción y cada dirección.Lenguajes de Programación Los ordenadores no hablan nuestro idioma. ). DEFINICIONES Un lenguaje de programación es una notación para escribir programas. otros. etc.

ya que los ordenadores actuales responden a un esquema análogo al de la máquina analítica. lo cual describe la inteligencia de la que se hallaban dotados. leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Como la maquina no llego nunca a construirse. logica/comparación. que la principio del siglo XIX predijo muchas de las teorías en que se basan los actuales ordenadores. lógicamente. y Ada. gracias a la creación de Charles Jacquard (francés). donde se almacenaban datos y resultados intermedios. para introducir datos e instrucciones. Consistía en lo que él denominaba la maquina analítica. Con él colaboro Ada Lovedby. la cual es considerada como la primera programadora de la historia. pero que por motivos técnicos no pudo construirse hasta mediados del siglo XX. Ada ha permanecido como la primera programadora de la historia. abandonando la maquina de diferencias. calculo/manipulación.hardware. HISTORIA Los primeros lenguajes de programación surgieron de la idea de Charles Babagge. los programadores utilizaron las técnicas diseñadas por Charles Babagge. de tal forma que según utilicemos un nivel u otro. así tendremos que utilizar un determinado lenguaje ligado a sus correspondientes traductores. en tarjetas perforadas. para regular la secuencia de 300 . la máquina constaba de cinco unidades básicas: 1) Unidad de entrada. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias. Los lenguajes de programación deben tener instrucciones que pertenecen a las categorías ya familiares de entrada/salida. Este hombre era un fabricante de tejidos y había creado un telar que podía reproducir automáticamente patrones de tejidos. se adelantaron un siglo a su época. y almacenamiento/recuperación. Pero Babagge se dedico al proyecto de la máquina analítica. tampoco llegaron a ejecutarse. la cual se le ocurrió a este hombre a mediados del siglo XIX. Es un conjunto de palabras y símbolos que permiten al usuario generar comandos e instrucciones para que la computadora los ejecute. 3) Unidad de control. Era un profesor matemático de la universidad de Cambridge e inventor ingles. Pero la tecnología de la época no bastaba para hacer realidad sus ideas. un dispositivo mecánico para efectuar sumas repetidas. que se pudiera programar con tarjetas perforadas. pero si suponen un punto de partida de la programación. En su diseño. su contribución es decisiva. sobre todo si observamos que en cuanto se empezó a programar. de textos. en la programación mediante tarjetas perforadas. Si bien las ideas de Babagge no llegaron a materializarse de forma definitiva. pues realizo programas para aquélla supuesta maquina de Babagge. 2) Memoria. . A pesar de ello. Se dice por tanto que estos dos genios de antaño. Entonces Babagge intento crear la máquina que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. los programas de Ada. que consistían entre otras.

otro 301 . El "diseñador del lenguaje" es también un termino algo nebuloso. el del programador profesional. LAS TENDENCIAS DE LOS LENGUAJES DE PROGRAMACIÓN El estudio de los lenguajes de programación agrupa tres intereses diferentes. estos tres trabajos han de realizarse dentro de las ligaduras y capacidades de la organización de una computadora y de las limitaciones fundamentales de la propia "calculabilidad". el primer compilador para el lenguaje Y sobre la maquina X es desarrollada por la corporación que manufactura la maquina X . La entrada y salida de datos se realizaba mediante tarjetas perforadas. intentare clarificar estas distinciones tratando diferentes lenguajes de programación en el contexto de cada área de aplicación diferente. en el sentido de que camufla importantes diferencias entre distintos niveles y aplicaciones de la programación. dado que faltaba algo fundamental: la electrónica. exactamente lo que sé hacia era cambiar cables de sitio para conseguir así la programación de la maquina. Además. el del diseñador del lenguaje y del Implementador del lenguaje. Algunos lenguajes (como APL y LISP) fueron diseñados por una sola persona con un concepto único. Charles Babbage. En este trabajo. hay varios compiladores de Fortran en uso. 4) Unidad Aritmético-Lógica. encargada de comunicar al exterior los resultados. su programación se basaba en componentes físicos. El "Implementador del lenguaje" es la persona o grupo que desarrolla un compilador o interprete para un lenguaje sobre una maquina particular o tipos de maquinas. que se programaba. cambiando directamente el Hardware de la maquina. Mas frecuentemente. se construyeron los primeros computadores. El termino "el programador" es un tanto amorfo. uno desarrollado por IBM para una maquina IBM. no fue nunca abandonado y siguiéndolo. conocido como el "padre de la informática" no pudo completar en aquella época la construcción del computador que había soñado.ejecución de las operaciones. Cuando surgió el primer ordenador. o del programador que desarrolla un sistema operativo multiprocesador en ADA. Por ejemplo. Claramente el programador que ha realizado un curso de doce semanas en COBOL y luego entra en el campo del procesamiento de datos es diferente del programador que escribe un compilador en Pascal. o del programador que diseña un experimento de inteligencia artificial en LISP. que efectúa las operaciones. el famoso ENIAC (Electronic Numerical Integrator And Calculator). 5) Unidad de salida. o sea. El camino señalado de Babbage. mientras que otros (FORTRAN y COBOL) son el producto de desarrollo de varios años realizados por comités de diseño de lenguajes. o del programador que combina sus rutinas de FORTRAN para resolver un problema de ingeniería complejo.

Es decir. APL y FORTRAN (para aplicaciones científicas). sin necesidad de programadores o practicas de programación. Son fundamentalmente lenguajes de ordenes. dos formas fundamentales desde las que pueden verse o clasificarse los lenguajes de programación: por su nivel y por principales aplicaciones. estos lenguajes permiten que los algoritmos se expresen en un nivel y estilo de escritura fácilmente legible y comprensible por otros programadores. estas visiones están condicionadas por la visión histórica por la que ha transcurrido el lenguaje. Hay. Cada tipo de maquina. Por ejemplo. Ejemplos de estos lenguajes son los lenguajes estadísticos como SAS y SPSS y los lenguajes de búsqueda en base de datos. dominados por sentencias que expresan "Lo que hay que hacer" en ves de "Como hacerlo". otro por CDC. Los "Lenguajes Ensambladores" y los "Lenguajes Maquina" son dependientes de la maquina. los lenguajes de alto nivel tienen normalmente las características de " Transportabilidad". SNOBOL( para aplicaciones de procesamiento de textos). los cuales son útiles en un entorno de programación de estudiantes debido a su superior capacidad de diagnostico y velocidad de compilación.desarrollado por DEC para una maquina DEC. Estos lenguajes se desarrollaron con la idea de que los profesionales pudieran asimilar mas rápidamente el lenguaje y usarlo en su trabajo. Los "Lenguajes Declarativos" son los mas parecidos al castellano o ingles en su potencia expresiva y funcionalidad están en el nivel mas alto respecto a los otros. tal como VAX de digital. Aunque no son fundamentalmente declarativos. LISP y PROLOG (para aplicaciones de inteligencia artificial). tiene su propio lenguaje maquina distinto y su lenguaje ensamblador 302 . Ejemplos de estos lenguajes de alto nivel son PASCAL. como NATURAL e IMS. Las compañías de software también desarrollan compiladores y también lo hacen los grupos de investigación de las universidades. Los lenguajes de " Alto Nivel" son los más utilizados como lenguaje de programación. diseñadores de un lenguaje implementadores del mismo. C y ADA (para aplicaciones de programación de sistemas) y PL/I (para aplicaciones de propósitos generales). Además. hay cuatro niveles distintos de lenguaje de programación. En ese sentido se llama "Independientes de la maquina". Además. están implementadas sobre varias maquinas de forma que un programa puede ser fácilmente " Transportado " (Transferido) de una maquina a otra sin una revisión sustancial. y así sucesivamente. al menos. la universidad de Waterloo desarrolla compiladores para FORTRAN Y PASCAL. Hay también muchos aspectos compartidos entre los programadores. COBOL (para aplicaciones de procesamiento de datos). Además. Cada uno debe comprender las necesidades y ligaduras que gobiernan las actividades de los otros dos.

C.asociado. un proceso más eficiente que la interpretación para la mayoría de los tipos de maquina. COBOL. como APL. La principal diferencia aquí es que los lenguajes ensambladores se utilizan símbolos (X. Los siguientes tres segmentos del programa equivalentes exponen las distinciones básicas entre lenguajes maquina. Cada sentencia es interpretada y luego traducida a lenguaje maquina solo una vez. sin un paso de procesamiento previo. a mas bajo nivel de lenguaje mas cerca esta de las características de un tipo e maquina particular y más alejado de ser comprendido por un humano ordinario. un compilador estará utilizable alternativamente para un lenguaje interpretado (tal como LISP) e inversamente (tal como el interprete SNOBOL4 de los laboratorios Bell).Pascal. En algunos casos. FORTRAN. Hay también una estrecha relación ( correspondencia 1:1) entre las sentencias en lenguaje ensamblador y sus formas en lenguaje maquina codificada.) para que lo comprenda la maquina. Sin embargo. mientras que se requieren códigos numéricos (OC1A4. PL/I. Algunos lenguajes son lenguajes principalmente interpretados. Ada y Modula-2 . el interprete ejecuta directamente las instrucciones en un lenguaje Y de alto nivel. La programación de un lenguaje de alto nivel o en un lenguaje ensamblador requiere. SNOBOL. en general. El resto de los lenguajes -. Con un compilador. ensambladores de alto nivel: Como muestra este ejemplo. lo cual permite una programación menos tediosa que con el anterior. La calidad de diagnosis y depuración que soportan los lenguajes interpretados es generalmente mejor que la de los lenguajes compilados. 1 Frecuentemente la interpretación es preferible a la compilación en un entorno de programación experimental o de educación. puesto que los mensajes de error se refieren directamente a sentencias del texto del programa original. un "compilador" y un "interprete". donde cada nueva ejecución de un programa implicado un cambio en el propio texto del programa. algún tipo de interfaz con el lenguaje maquina para que el programa pueda ejecutarse. PROLOG y LISP. la ventaja de la eficiencia que se 303 . A para " sumar".son normalmente lenguajes compilados. Y. etc. Por otra parte. M para "multiplicar"). por tanto. Z. Además. El ensamblador y el compilador traducen el programa a otro equivalente en el lenguaje X de la maquina "residente" como un paso separado antes de la ejecución. Esto se debe principalmente a que las sentencias dentro de un "bucle" deben ser reinterpretadas cada vez que se ejecutan por un interprete. El lenguaje Ensamblador es simplemente una representación simbólica del lenguaje maquina asociado. Las tres interfaces más comunes: un "ensamblador”. es necesario un conocimiento de la arquitectura mecánica subyacente para realizar una programación efectiva en cualquiera de estos niveles lenguajes. La compilación es.

Con frecuencia el programador es osado a usar combinaciones de conceptos que hacen al lenguaje "DURO" de usar. Por tanto. ver la influencia que ejercer las arquitecturas y aplicaciones de las computadoras sobre el diseño de lenguajes y evitar futuros defectos de diseño aprendido las lecciones del pasado. Lo más importante es que la historia nos permite ver la evolución de familias de lenguajes de programación. la decisión de incluir u omitir ciertos tipos de datos que pueden tener una significativa influencia en la forma en que el Lenguaje es usado. Existen cinco estilos de programación y son los siguientes: Orientados a Objetos. el cual tiene sus raíces en los comienzos de la historia de los lenguajes de programación. F} + operaciones lógicas (Inteligencia Artificial). los lenguajes "mas jóvenes" desaconsejan (o prohíben) el uso de las sentencias GOTO como mecanismo de control inferior. Es importante para un programador decidir cuales conceptos emitir o cuales incluir en la programación. los resultados pueden ser un valor o una función. las cuales han sido diseñadas recientemente por Symbolics y Xerox Corporations. Por ejemplo. Como ejemplo de estos están las nuevas maquinas LISP. y esto es correcto en el contexto de las filosofías actuales de ingeniería del software y programación estructurada. Concurrente : Aún esta en proceso de investigación. de entender e implementar. procesamiento y salidas de Datos. El programador. Cada programador tiene en mente un estilo particular de programación. la decisión de usar u omitir conceptos de programación o modelos. debido a la evolución de las maquinas cuyos lenguajes son ellos mismos1lenguajes de alto nivel. diseñador e implementador de un lenguaje de programación deben comprender la evolución histórica de los lenguajes para poder apreciar por que presentan características diferentes.adjudica tradicionalmente a los lenguajes compilados frente a los interpretados puede pronto ser eliminado. los datos son funciones. era la única estructura de control disponible. el programador no dispone de algo como la construcción WHILE o un IFTHEN-ELSE para elegir. Los lenguajes de Programación son tomados de diferentes perspectivas. combinada con la IF. Imperativa : Entrada. Pero hubo un tiempo en que la GOTO. cuando se ve un lenguaje como FORTRAN. Funcional : "Funciones". Los que estudian se han elegido debido a su mayor influencia y amplio uso entre los programadores. uno no debe sorprenderse de ver la antigua sentencia GOTO dentro de su repertorio. Lógico : {T. así como por sus distintas 304 .

o potencia de programación. Una discusión más directa de todos estos primeros modelos no están entre los objetivos de este texto. y por su estado en el núcleo de la teoría de la computadora. Mas sobre este punto. Vemos que FORTRAN I es un ascendente directo de FORTRAN II. puesto que el gobierno es. COBOL. por ejemplo. es el modelo básico de la mayoría de los diseños de computadoras de las ultimas tres décadas. con mucho. en la transición. por otra. La arquitectura de computadoras de Von Neumann. las maquinas que implementan este lenguaje deben cumplir todas las especificaciones estándares. conocida ampliamente como "tesis de Church". LISP. Sin embargo. la cual fue una evolución de la maquina más antigua de Turing.características de diseño e implementación. mientras que FORTRAN. Esta sección. cualquier algoritmo que pueda describirse en ingles o castellano puede escribirse igualmente como una maquina de Turing (maquina de Von Neumann). ALGO 60. influyeron en el diseño de PL/I. Colectivamente cubren los aspectos más importantes con los que ha de enfrentarse el diseñado de lenguajes y la mayoría de las aplicaciones con las que se enfrenta el programador. un algoritmo de Markov o una función recursiva. También varios lenguajes están prefijados por las letras ANS. es importante apuntar aquí debido a su fundamental influencia en la evolución de los primeros lenguajes de programación. Para los lectores que estén interesados en conocer con mas detalle la historia de los lenguajes de programación recomendamos las actas de una recién conferencia (1981) sobre este tema. nos permite escribir algoritmos en distintos estilos de programación (lenguajes) sin sacrificar ninguna medida de generalidad. Finalmente. reforzando así el máximo de transportabilidad de programas de una maquina a otra. La policía federal de no comprar maquinas que no cumplan la versión estándar de cualquier lenguaje que soporte tiende a "fortalecer" el proceso de estandarización. el ingles influyo en el desarrollo del COBOL. por una parte. la notación algebraica ordinaria. SNOBOL y los lenguajes ensambladores. Una vez que un lenguaje esta estandarizado. el mayor comprador de computadoras de la nación. mientras que el algoritmo de Markov motivo el estilo de reconocimiento de formas de SNOBOL. Esto significa que el American National Standards Institute ha adoptado esa versión del lenguaje como el estándar nacional. CLASIFICACION DE LOS LENGUAJES DE PROGRAMACIÓN LENGUAJE MÁQUINA: 305 . Esta maquina no solo influyeron en los primeros lenguajes sino que también suministraron el esqueleto operacional sobre el que evoluciono la mayoría de la programación de sistemas. influyo fuertemente en el diseño de FORTRAN y ALGOL. El lambda calculo de Church dio los fundamentos de la notación funcional de LISP. editadas por Richard Wexelblat. Por otra parte.

denominados bits (abreviatura inglesa de dígitos binarios). La computadora sigue utilizando el lenguaje maquina para procesar los datos. La primera es el comando u operación. que además reducen la posibilidad de cometer errores. en la codificación de los programas se empleaba el sistema hexadecimal para simplificar el trabajo de escritura. ya que esta escrito en lenguajes directamente inteligibles por la máquina (computadora). Los códigos mnemotécnicas son los símbolos alfabéticos del lenguaje maquina. Los programas solo son ejecutables en el mismo procesador (CPU).El lenguaje máquina es el único que entiende directamente la computadora. Gran dificultad para verificar y poner a punto los programas. dependen de la máquina en particular. En la actualidad. Esa flexibilidad se consigue no escribiendo los campos en binario y aproximando la escritura al lenguaje. LENGUAJES DE BAJO NIVEL (ensamblador): Son más fáciles de utilizar que los lenguajes máquina. La segunda parte de la instrucción es el operando. pero dejo de utilizarse por su dificultad y complicación. Todas las instrucciones preparadas en cualquier lenguaje máquina tienen por lo menos dos partes. las posiciones (dirección) de memoria implicadas en la operación se denominan instrucciones de máquina o código maquina. se desarrollaron códigos mnemotécnicos para las operaciones y direcciones simbólicas. lo que hace prácticamente no recomendables a los lenguajes máquina. que indica a la computadora donde hallar o almacenar los datos y otras instrucciones que se van a manipular. El lenguaje máquina es el conocido código binario. Desventajas del lenguaje máquina: dificultad y lentitud en la codificación. siendo sustituido por otros lenguajes más fáciles de aprender y utilizar. que consta de los dos únicos símbolos 0 y 1. El lenguaje de bajo nivel por excelencia es el ensamblador. que dice a las computadoras cual es la función que va a realizar. Generalmente. Sus instrucciones son cadenas binarias (cadenas o series de caracteres de dígitos 0 y 1) que especifican una operación y. utiliza el alfabeto binario. Fue el primer lenguaje utilizado en la programación de computadoras. las desventajas superan a las ventajas. Todas las computadoras tienen un código de operación para cada una de las funciones. pero los programas ensambladores traducen antes los símbolos de código de operación especificados a sus equivalentes en el lenguaje 306 . Ventajas del lenguaje máquina: posibilidad de cargar (transferir un programa a la memoria) sin necesidad de traducción posterior. lo que supone una velocidad de ejecución superior a cualquier otro lenguaje de programación. Poca fiabilidad. Este intenta desflexibilizar la representación de los diferentes campos. El lenguaje ensamblador es el primer intento de sustituir el lenguaje maquina por otro más similar a los utilizados por las personas. pero al igual que ellos. A principios de la década de los 50 y con el fin de facilitar la labor de los programadores. el número de operándoos de una instrucción varia en distintas computadoras.

Visto a muy bajo nivel. Un programa de instrucciones escrito en lenguaje ensamblador por un programador se llama programa fuente. los microprocesadores procesan exclusivamente señales electrónicas binarias. en general. Si se lleva el programa a otra maquina se debe reescribir el programa desde el principio. Estos programas de ensamble o ensambladores también permiten a la computadora convertir las instrucciones en lenguaje ensamblador del programador en su propio código maquina. asigna localidades tanto para las instrucciones como los datos. Los programas en lenguaje ensamblador son más fáciles de modificar que los programas en lenguaje máquina. simplemente especifican donde quieren que se coloque la primera localidad del programa y el programa ensamblador se encarga de lo demás. como por ejemplo STORE. su velocidad de calculo. Después de que el ensamblador convierte el programa fuente en código maquina a este se le denomina programa objeto. Esta secuencia de señales se denomina código máquina. El lenguaje de bajo nivel es el lenguaje de programación que el ordenador puede entender a la hora de ejecutar programas. Los lenguajes de bajo nivel permiten crear programas muy rápidos. a menudo.maquina. Para los programadores es más fácil escribir instrucciones en un lenguaje ensamblador que en código de lenguaje maquina pero es posible que se requieran dos corridas de computadora antes de que se puedan utilizar las instrucciones del programa fuente para producir las salidas deseadas. lo que aumenta su velocidad de ejecución. Esta abstracción da como resultado el ensamblador. pero que son. El código representa normalmente datos y números e instrucciones para manipularlos. Más importante es el hecho de que los programas escritos en un bajo nivel sean altamente específicos de cada procesador. Ventajas del lenguaje ensamblador frente al lenguaje máquina: mayor facilidad de codificación y. 307 . Se incurren en menos errores y los que se cometen son más fáciles de localizar. Un modo más fácil de comprender el código máquina es dando a cada instrucción un mnemónico. un lenguaje de muy bajo nivel que es específico de cada microprocesador. difíciles de aprender. Dar una instrucción a un microprocesador supone en realidad enviar series de unos y ceros espaciadas en el tiempo de una forma determinada. En la actualidad los programadores no asignan números de dirección reales a los datos simbólicos. ahorran tiempo y requieren menos atención a detalles. pues no necesita un intérprete que traduzca cada línea de instrucciones. ADD o JUMP. Tanto el lenguaje maquina como el ensamblador gozan de la ventaja de mínima ocupación de memoria y mínimo tiempo de ejecución en comparación con el resultado de la compilación del programa equivalente escrito en otros lenguajes.

en el programa se deben describir con el máximo detalle todas las operaciones que se han de efectuar en la maquina para la realización de cualquier proceso. sino también el conocimiento del interior de la maquina El programador ha de conocer perfectamente el hardware del equipo. Por lo general se piensa que los ordenadores son máquinas que realizan tareas de cálculos o procesamiento de texto. Están diseñados para que las personas escriban y entiendan los programas de un modo mucho mas fácil que los lenguajes máquina y ensamblador. Son lenguajes de programación en los que las instrucciones enviadas para que el ordenador ejecute ciertas órdenes son similares al lenguaje humano. dado que a pesar de que las computadoras parecen comprender un lenguaje natural. ya que exige no solo las técnicas de programación. es decir. Existe también una relación compleja entre los lenguajes de alto nivel y el código máquina. se centran básicamente en aplicaciones de tiempo real. 308 .Desventajas del lenguaje ensamblador: dependencia total de la maquina lo que impide la transportabilidad de los programas (posibilidad de ejecutar un programa en diferentes máquinas). El lenguaje ensamblador del PC es distinto del lenguaje ensamblador del Apple Machintosh. LENGUAJES DE ALTO NIVEL: Estos lenguajes son los mas utilizado por los programadores. Por desgracia para muchas personas esta forma de trabajar es un poco frustrante. Hay un alto nivel de abstracción entre lo que se pide a la computadora y lo que realmente comprende. Los lenguajes ensamblador tienen sus aplicaciones muy reducidas. por lo que estos programas son portables o transportables. Un programa escrito en lenguaje de alto nivel es independiente de la máquina (las instrucciones no dependen del diseño del hardware o de una computadora en particular). lo hacen en realidad de una forma rígida y sistemática. es necesario el uso de un intérprete que traduzca el lenguaje de alto nivel a un lenguaje de bajo nivel que el sistema pueda entender. Dado que el ordenador no es capaz de reconocer estas ordenes. los comandos como “IF CONTADOR=10 THEN STOP” pueden utilizarse para pedir a la computadora que pare si CONTADOR es igual a diez. ya que maneja directamente las posiciones de memoria. En BASIC. registros del procesador y demás elementos físicos. el lenguaje de alto nivel más conocido. Los programas escritos en lenguaje de alto nivel pueden ser ejecutados con poca o ninguna modificación en diferentes tipos de computadoras. Todas las instrucciones son elementales. La formación de los programadores es más compleja que la correspondiente a los programadores de alto nivel. control de procesos y de dispositivos electrónicos. como el inglés. Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados por elementos de lenguajes naturales. La descripción anterior es sólo una forma muy esquemática de ver una computadora.

para obtener el programa ejecutable en lenguaje binario de la maquina que se trate. No se aprovechan los recursos internos de la maquina que se explotan mucho mejor en lenguajes máquina y ensambladores. para que el programa se pueda escribir y leer de una forma más sencilla.Los lenguajes de alto nivel. además de las diferentes versiones o dialectos que se han desarrollado de algunos de ellos. como las de entrada / salida. etc. entre otros: Lograr independencia de la maquina. también denominados lenguajes evolucionados. Reducción del costo de los programas. nombres de las instrucciones tales como READ. surgen con posterioridad a los anteriores (lenguaje máquina. atendiendo a la forma de trabajar de los programas y a la filosofía con que fueron concebidos. WRITE. Se puede decir que el principal problema que presentan los lenguajes de alto nivel es la gran cantidad de ellos que existen actualmente en uso. Incluir rutinas de uso frecuente. Transportabilidad. que figuran en una especie de librería del lenguaje. que es suministrado por el fabricante. Además. etc. OPEN. 309 . Aumento de la ocupación de memoria. Una clasificación muy extendida. El tiempo de ejecución de los programas es mucho mayor. Utilizan instrucciones como unidad de trabajo de los programas (Cobol. Lenguajes declarativos. ya que en cualquiera que se realice habrá lenguajes que pertenezcan a mas de uno de los grupos establecidos. Es difícil establecer una clasificación general de los mismos. Prolog). es la siguiente: • • Lenguajes imperativos. ya que se utilizan palabras (en ingles) en lugar de cadenas de símbolos sin ningún significado aparente. Las modificaciones y puestas a punto de los programas son más fáciles. Aproximarse al lenguaje natural. no se necesita conocer el hardware especifico de dicha maquina. Son más fáciles de mantener. La escritura de programas se basa en reglas sintácticas similares a los lenguajes humanos. Desventajas de los lenguajes de alto nivel: incremento del tiempo de puesta a punto al necesitarse diferentes traducciones del programa fuente para conseguir el programa definitivo. C. eliminando muchas de las posibilidades de cometer errores que se daban en el lenguaje maquina. funciones matemáticas. manejo de tablas. de manera que se puedan utilizar siempre que se quiera sin necesidad de programarlas cada vez. Ada). Pascal. PRINT. lenguajes de bajo nivel o ensamblador) con los siguientes objetivos. Los programas se construyen mediante descripciones de funciones o expresiones lógicas (Lisp.. pudiendo utilizar un mismo programa en diferentes equipos con la única condición de disponer de un programa traductor o compilador. Permiten tener una mejor documentación. Ventajas de los lenguajes de alto nivel: el tiempo de formación de los programadores es relativamente corto comparado con otros lenguajes.

Cuarta generación. Segunda generación. para resolver un problema. Están desarrollándose nuevos lenguajes con el principal objetivo de aproximar el diseño y construcción de programas al lenguaje de las personas. Primeros lenguajes de alto nivel imperativo (FROTRAN.• Lenguajes orientados a objetos. El diseño de los programas se basa mas en los datos y su estructura. C++). COBOL). • • • Para la mejor compresión se harán unas definiciones: Programa: es un conjunto de instrucciones escritas en un lenguaje de programación que indican a la computadora la secuencia de pasos. La unidad de proceso es el objeto y en el se incluyen los datos (variables) y las operaciones que actúan sobre ellos (Smalltalk. Tercera generación. Diseñados para problemas específicos. PASCAL. PROLOG). • • Otra clasificación que se puede hacer es la de atendiendo al desarrollo de los lenguajes desde la aparición de las computadoras. que sigue un cierto paralelismo con las generaciones establecidas en la evolución de las mismas: • • Primera generación. Orientados básicamente a las aplicaciones de gestión y al manejo de bases de datos (NATURAL. 310 . Son los mas utilizados y siguen vigentes en la actualidad (ALGOL 8. Este debe estar complementado por su documentación o manuales donde se indica el desarrollo lógico del mismo. Lenguajes naturales. Lenguajes de alto nivel imperativo. PL/I. MODULA). suelen ser generadores de aplicaciones. Código objeto: es creado por los compiladores y nos sirve como enlace entre el programa fuente y el ejecutable. por lo que es entendido 100% por el ser humano. SQL). Código fuente: esta creado en algún lenguaje de alto nivel. Lenguajes orientados al problema. Orientados a la inteligencia artificial y al procesamiento de los lenguajes naturales (LISP. Lenguajes maquina y ensambladores. principalmente de gestión. Quinta generación.

tratamiento paralelo de tablas y uso de memoria dinámica. Hasta 1961 se mantuvo como monopolio de IBM. comenzo la portabilidad del lenguaje. Se caracteriza por su potencia en los cálculos matemáticos. Estas características hacer que el lenguaje también sea valido para determinadas aplicaciones de gestión. y el hecho que pudieran procesarse programas de FORTRAN muy eficazmente. FRONTRAN 90. A lo largo de su existencia han aparecido diferentes versiones. fue definido alrededor del año 1955 en Estados Unidos por la compañía IBM. En 1977 apareció una nueva versión mas evolucionada que se llamo FORTRAN V o FORTRAN 77.9-1978: Programming Language FORTRAN y define dos niveles del lenguaje denominados FORTRAN 77 completo y FORTRAN 77 básico. por la facilidad con que permite expresar una ecuación. Antes de él. todos los programas se escribían en lenguaje ensamblador o en lenguaje máquina. manejo de archivos. mini o mainframe. instrucciones para el manejo de cadenas de caracteres y de archivos. se encuentra en el documento ANS X3. que FORTRAN 66 se volvió el primer idioma en ser regularizado oficialmente en 1972. Permite expresar los programas de maneras 311 . además. entre las que destaca la adoptada en 1966 por el ANSI (American National Standards Institute). FORTRAN Abreviatura de FORmula TRANslator (traductor de formulas). Una de sus ventajas es que es un lenguaje compacto y es también ampliamente utilizado para aplicaciones en los negocios que no requieren manejo de grandes archivos de datos.198-1991 en la que se incluyen características como la recursividad. pero esta limitado en las aplicaciones de gestión. es decir. La ultima normalización del lenguaje. y el idioma se hizo tan popular en los años 60. Era por consiguiente posible escribir programas en FORTRAN en cualquier sistema y estar bastante seguro que estos pudieran moverse para trabajar en cualquier otro sistema bastante fácil. siendo el segundo un subconjunto del primero. Muchas de sus características fueron incorporadas mas tarde en el primer lenguaje BASIC.ALGUNOS LEGUAJES DE PROGRAMACIÓN DE ALTO NIVEL A continuación se presentan varios de los mas conocidos y utilizados. así como otras para la utilización de técnicas de programación estructurada. Está reflejada en el documento ANS X3. Esta versión se denominó FORTRAN IV o FORTRAN 66. Esto. Es un lenguaje especializado en aplicaciones técnicas y científicas. Incluye. tratamiento de cadenas de caracteres y edición de informes. Es un lenguaje notorio. A mediados de los años setenta se proporcionaron virtualmente cada computadora. en la que se definieron nuevas reglas del lenguaje y se logro la independencia del mismo con respecto a la máquina. lenguajes de alto nivel. Es él más antiguo de los lenguajes de alto nivel. con un sistema FORTRAN 66 normal. pero posteriormente se fue implementando en ordenadores de otros fabricantes.

El FRONTRAN tiene la ventaja de ser un lenguaje compacto que sirve muy bien para satisfacer las necesidades de los científicos y los estadísticos de los negocios. con el objetivo de obtener un lenguaje lo mas general posible en cuanto a su implementación. en 1974. Entre sus inconvenientes están sus rígidas reglas de formatos de escritura. útil para aplicaciones técnico-científicas. la extensión excesiva en sus sentencias. No obstante. En FROTRAN 90 algunos rasgos de FROTRAN 77 han sido reemplazados por rasgos mejores. comerciales. COBOL ANS-85. Su primer estándar fue aprobado por el ANSI en 1968. creado en 1960 por un comité denominado CODASYL (COnference on DAta SYstems Languages). A lo largo de su existencia ha sufrido diversas actualizaciones. se adopta la norma ANS X3. se puede afirmar que en la actualidad continua siendo el lenguaje mas utilizado en las aplicaciones de gestión. que ha perdurado hasta su ultima versión. es autodocumentado y ofrece grandes facilidades en el manejo de archivos. mas seguros y más eficaces. COBOL Es el lenguaje mas utilizado en las aplicaciones de gestión. y la inexistencia de funciones matemáticas. e incluso duplicación en algunos casos. como expresa su nombre (COmmnon Business Oriented Language). patrocinado por el Departamento de Defensa de Estados Unidos.que se satisfacen mas a un ambiente de la informática moderna y han quedado obsoletos muchos de los mecanismos que eran apropiados en FROTRAN 77. COBOL y FORTRAN se desarrollo el PL/I (Programming Language/I) tomando las mejores características de los anteriores y añadiendo algunas nuevas. muchos de estos fueron quitados del idioma FORTRAN 95. Sus características más destacables son las siguientes: se asemeja al lenguaje natural (inglés). la necesidad de escribir todos los elementos al máximo detalle.23-1974. a fin de disponer de un lenguaje universal para aplicaciones comerciales. Puede emplear términos comúnmente utilizados en los negocios. Inspirándose en los lenguajes ALGOL. que facilita el diseño estructurado de los programas. así como en la edición de informes escritos. de bases 312 . PL/I Fue creado a comienzos de los años sesenta por IBM para ser usado en sus equipos del sistema 360. Posteriormente. de proceso de textos.

Es un lenguaje interactivo muy popular que tiene una aceptación debido a la facilidad de su uso. Los enunciados se combinan en procedimientos. Existen multitud de interpretes y compiladores del lenguaje. en cuyo diseño había participado en los años sesenta. Blaise Pascal. es un idioma simple para aprender y fácil de traducir. Esto. Se trata de un lenguaje de programación complejo. a la vez que ha propiciado el surgimiento de una gran diversidad de diversiones que extienden y se adaptan a necesidades particulares el lenguaje original. Kemeny y Thomas E. Entre sus principales novedades están las de ser un lenguaje interpretado y de uso conversacional. PASCAL Fue creado por el matemático suizo Nicklaus Wirth en 1970. con el objetivo principal de proporcionar a los principiantes un lenguaje fácil de aprender. como se indica en su nombre Beginner's All-purpose Symbolic Instruction Code (Código de instrucciones simbólico de propósito general para principiantes). con el tiempo ha llegado a ser un lenguaje ampliamente utilizado en todo tipo de aplicaciones.de datos y de programación de sistemas. que invento la primera maquina tipo mecánico para sumar. Un procedimiento puede representar por completo a un programa pequeño o un “bloque de construcción” o modulo de un programa más complejo. Que sé interactivo. útil para aplicaciones técnicas y de gestión. no ha superado a sus progenitores en sus aplicaciones especificas. debido en parte a su amplitud y. permite la comunicación directa entre el usuario y el sistema de computo durante la preparación y uso de los programas. es capaz de gestionar errores y de procesar multitareas. Es un lenguaje flexible y sofisticado. y se emplea en entornos académicos y de investigación. BASIC El lenguaje BASIC fue diseñado por los profesores John G. ha hecho que su utilización sea haya extendido enormemente. Compilado y estructurado. Su nombre proviene del filosofo y matemático francés del siglo XVII. Kurtz del Dartmouth College (Estados Unidos) en 1965. Aunque en principio la idea del diseñador era proporcionar un lenguaje adecuado para la enseñanza de los conceptos y técnicas de programación. No obstante. unido a la popularización de las microcomputadoras y computadoras personales. que posee grandes facilidades para la programación de sistemas y diseño grafico. 313 . al tamaño de su compilador que hasta ahora solo se podía instalar en grandes equipos. por ello. El elemento básico de este programa es el enunciado que termina en punto y coma. basándose en el lenguaje ALGOL. Fue el primer gran lenguaje creado después de haber sido ampliamente diseminados los conceptos asociados con la programación estructurada. Entre sus novedades esta su gran libertad en el formato de escritura de los programas: soporta la programación estructurada y diseño modular.

por lo que resulta ser el lenguaje preferido para el desarrollo de software de sistemas y aplicaciones profesionales de la programación de computadoras. MODULA-2 El lenguaje MODULA fue diseñado en 1977 bajo la dirección de Nicklaus Wirth. con el cual escribir su sistema UNIX. los procedimientos de entrada/salida y la gestión de la 314 . Para 1983 dicha denominación cambio a la de C++. y entre sus características destaca el uso de programación estructurada para resolver tareas de bajo nivel. fue diseñado inicialmente para la programación de sistemas. creación de librerías. La utilización optima de este lenguaje se consigue dentro de su entorno natural. como MODULA-2 y ADA. Además de incluir las características de su predecesor. En 1979 se realiza una versión que pasa a denominarse MODULA-2 y que perdura en la actualidad. programación estructurada y diseño descendente. este nuevo lenguaje incorpora las principales carencias de aquel. Estos habían diseñado con anterioridad el sistema operativo UNIX. como la posibilidad de compilación separada. posteriormente su uso se ha extendido a ablaciones técnico-científicas.Aporta los conceptos de tipo de datos. mejora el manejo de cadenas de caracteres. entre otros. creador también el lenguaje PASCAL. y su intención al desarrollar el lenguaje C fue la de conseguir un lenguaje idóneo para la programación de sistemas que fuese independiente de la maquina. Con este nuevo enfoque surge la nueva metodología que aumenta las posibilidades de la programación bajo nuevos conceptos. de bases de datos. En 1980 Bjarne Stroustrup. que ese el sistema operativo UNIX. además de haberse convertido en predecesor de otros lenguajes más modernos. C Este lenguaje fue creado en 1972 por Dennis Ritchie a partir del trabajo elaborado por su colega de los laboratorios Bell Telephone. de proceso de textos. Aunque. programación concurrente. Ken Thompson. así como la amplia librería de rutinas de que dispone. como acabo de decir. con gran poderío basado en sus operaciones a nivel de bits (propias de ensambladores) y la mayoría de los elementos de la programación estructurada de los lenguajes de alto nivel. inspirado en el lenguaje Simula67 adicionó las características de la programación orientada a objetos incluyendo la ventaja de una biblioteca de funciones orientadas a objetos) y lo denomino C con clases. etc. con la intención de incluir las necesidades de la programación de sistemas y dar respuestas a las criticas recibidas respecto de las carencias del lenguaje PASCAL. El lenguaje C reúne características de programación intermedia entre los lenguajes ensambladores y los lenguajes de alto nivel.

en tanto que sus favorecedores lo consideraban un gran avance en la tecnología del software. programación concurrente. Su diseño fue encargado por el Departamento de Defensa de Estados Unidos. además. y fue considerado durante mucho tiempo el lenguaje modelo para la investigación de la inteligencia artificial (IA). los tipos abstractos de datos. LISP En informática. desarrollado en 1968 por Seymour Papert en el MIT. en honor de la considerada primera programadora de la historia. Una característica 315 . lenguaje de programación de ordenadores o computadoras. el ALGOL y el PL/I. De estos. libertad de formatos de escritura. se seleccionaron como base para la creación del nuevo lenguaje el PASCAL. en el que cada expresión es una lista de llamadas a funciones. aunque el Prolog ha ganado terreno durante los últimos años.memoria. El LISP es un lenguaje interpretado. programación estructurada. El lenguaje LISP constituyó un cambio radical con respecto a los lenguajes procedurales (FORTRAN. Este lenguaje se sigue utilizando con frecuencia en investigación y en círculos académicos. Augusta Ada Byron. e incluso los últimos avances de técnicas de programación. etc. Un lenguaje de programación para ordenadores o computadoras orientado a la generación de listas. ALGOL) que se desarrollaban por entonces. condesa de Lovelace. Entre las características del lenguaje se encuentran la compilación separada. acrónimo de List Processing. La estandarización del lenguaje se publico en 1983 con el nombre de ADA. LOGO En informática. a la empresa Honeywell-Bull después de una selección rigurosa entre varias propuestas realizadas sobre una serie de requerimientos del lenguaje y de haber evaluado negativamente veintitrés lenguajes existentes. que se usa frecuentemente en la enseñanza de lenguaje de programación a niños. debido a sus cualidades didácticas. Como principal inconveniente presenta su gran extensión. También. ADA Es él ultimo intento de obtener un único lenguaje para todo tipo de aplicaciones. posee grandes facilidades para la programación de sistemas. etc. Los escritores lo llamaron inflexible e ineficiente. desarrollado en 1959-1960 por John McCarthy y usado principalmente para manipular listas de datos o de símbolos. ha sido ampliamente aceptado por la comunidad universitaria como herramienta idónea para la enseñanza de la programación. para su uso en servicios militares.

un ciclo de procesamiento básico. Un grupo internacional de matemáticos europeos y americanos. hacia la derecha o la izquierda. Dado que la lógica de la programación es fija. ALGOL El ALGOL (ALGOritmic Language) fue presentado en 1958. Fue orientado al uso de quienes participan en proyectos científicos y matemáticos. generar informes comerciales o de negocios. el programador (normalmente un niño o una niña) empieza a descubrir las características más sofisticadas del lenguaje. el RPG es un lenguaje de propósito limitado porque los programas objeto generados por el compilador de RPG siguen sin desviación. Una vez que dominan el entorno sencillo del dibujo. Este lenguaje fue desarrollado por IBM en 1964. que están basadas fundamentalmente en el lenguaje de programación LISP. Logo está considerado como un lenguaje para la formación. existen menos reglas formales que en otros lenguajes. APL Sus siglas significan (A Programming Language). que permiten al programador hacer dibujos simples dirigiendo los movimientos de la tortuga en la pantalla hacia adelante. Su uso esta aun limitado sobre todo para las aplicaciones de negocios que son procesadas en pequeñas computadoras. Fue el primer lenguaje de programación de proceso estructurado de alto nivel. Como su nombre lo sugiere. Este programa fue desarrollado por Kenneth Inverson en el año 1961 para resolver problemas matemáticos. fue el primero que incorporo conceptos claves para la programación actual.importante de Logo son los gráficos de tortuga. RPG Report Program Operator fue introducido en 1960 como un lenguaje para duplicar rápidamente el enfoque de proceso utilizado con un equipo de tarjeta perforada. el RPG esta diseñado para generar los reportes de salida que resultan del proceso de aplicaciones de negocios. a pesar de que algunas empresas intentaron que tuviera una mayor aceptación en los círculos profesionales de programación. pretendían crear un lenguaje común normalizado que les permitiera el intercambio de algoritmos. Un Lenguaje de Programación. aunque esta en desuso. Este lenguaje se caracteriza por su brevedad y 316 . Una ventaja del RPG es la relativa facilidad para aprenderlo y usarlo. A pesar de las aplicaciones de actualización de archivos.

Las principales ideas de SMALLTALK se le atribuyen generalmente a Alan kay con raíces en Simula. LISP y SketchPad. . Object Technology International Inc. desarrollado por SMALLTALK poseen un factor “divertido-de-usar”. IBM desarrolló la familia de productos VisualAge para SMALLTALK en colaboración con Object Technology (antiguamente ParcPlase-Digitalk) e IBM permanecen como los distribuidores dominantes de entornos de desarrollos en SMALLTALK. Se caracteriza por utilizar un mínimo de sintaxis. Este SMALLTALK estaba dirigido a cubrir la necesidad de un producto pequeño. 317 . Un segundo SMALLTALK (SMALLTALK 4) fue desarrollado por Digitalk en los Angeles California. desde el Sistema Operativo de Apple MS Windows y Borland Pascal (en una memoria extensión). Adele Goldberg y Dave Robson escribieron los manuales de referencia para SMALLTALK y fueron miembros clave del equipo de desarrollo. SMALLTALK SMALLTALK. lenguaje o aprendizaje de investigación programada) creado en 1969. los pop-up menús y la clase BitBlt. Sin embargo la distribución generalizada a la comunidad de desarrollo no sucedió hasta la fundación de una nueva compañía llamada ParcPlace Systems Inc. (OTI) desarrolló un conjunto de herramientas para proveer el control de inversiones y el manejo de configuraciones en grandes proyectos. Este lenguaje de programación es utilizado fundamentalmente para crear aplicaciones destinadas a instrucciones asistidas por computadoras. El entorno de desarrollo merece similar valoración y ha sido copiado muchas veces. PILOT Programmend Inquiry Language Or Teaching (Consulta. Los cambios se graban instantáneamente y los mismos pueden probarse rápidamente. Dirigida por Adele Goldberg. Muchos conceptos de SMALLTALK como los browsers y las técnicas de browsing han encontrado hoy su rumbo en muchas herramientas de desarrollo de la generación X. de alta velocidad. Algunos nuevos SMALLTALK se hallan en etapa de desarrollo. SMALLTALK fue desarrollado dentro del Grupo de Investigación del Aprendizaje en el Centro de Investigación de Xerox en palo Alto a comienzos de los 70.por su capacidad de generación de matrices y se utiliza en el desarrollo de modelos matemáticos. SMALLTALK no es solo un hermoso lenguaje de computación orientado a objetos. Un programa de licenciamiento de Xerox y Xerox Special Information Systems. Dan Ingalls escribió el código de las primeras ventanas solapables. basado en PC. Lenguaje de Programación orientado a objetos integrados con un entorno de desarrollo multiventana.

C+ + es un super conjunto de C. 318 . Es un lenguaje extremadamente poderoso y eficiente. Empresa e Internet . Reusabilidad de componentes. etc. creado en 1970. por ejemplo contiene un TeeChart. portátiles. Fue desarrollada por Bjarme Stroustrup en los Bell Laboratories a principios de la década de los 80.soluciones cliente y servicio Desarrollo de aplicaciones rápidas (RAD). para mejorar la entrega de información a través de Internet. un verdadero entorno orientado a objetos. con la única diferencia que Delphi 3 es mucho más mejorado. DELPHI Es un entorno de programación visual orientado a objetos para desarrollo rápido de aplicaciones (RAD) de propósito general. Es un lenguaje de alto nivel del cual derivan en la actualidad casi todos los lenguajes empleados en los robots. para aprender C++ significa aprender todo de C. que sirve para los gráficos de negocio. JAVA Es un lenguaje de programación para crear programas seguros. Delphi tiene las siguiente características: • • • • • • • Rendimiento . es decir son casi los mismos. Arquitectura multinivel abierta y dimensionable. orientados a objetos interactivos.FORTH Lenguaje de cuarta generación. luego aprender programación orientada al objeto y el uso de éstas con C++. Diseminación de información de base de datos en la Web a una gran velocidad. Manejo de Base de Datos escalables. LENGUAJE C++ Se pronuncia “ce plus plus”. es un lenguaje estructurado e interpretado de fácil ampliación y ofrece una alta funcionalidad en un espacio reducido. incluyendo aplicaciones cliente/servidor. Delphi es la versión de Delphi para 32 bits (delphi 3). C++ introduce la programación orientada al objeto en C.con el mejor y más rápido compilador del mundo.

EVOLUCION DE LOS LENGUAJES DE PROGRAMACIÓN Primera Generación En esta generación había un gran desconocimiento de las capacidades de las computadoras. También en esta época se empezó a definir la forma de comunicarse con las computadoras. 1 En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).JAVASCRIPT Este lenguaje de programación originalmente fue llamado LIVESCRIPT. En 1951 aparece la UNIVAC (NIVersAl Computer). 319 . al permitir a la página realizar algunas tareas por si misma. JAVASCRIPT es un lenguaje diseñado especialmente para ejecutarlo en internet. que recibía el nombre de programación de sistemas. Eran programadas en lenguaje de máquina. se reducía su tamaño y crecía su capacidad de procesamiento. Segunda Generación Cerca de la década de 1960. Las características de la segunda generación son las siguientes: • • Están construidas con circuitos de transistores. las computadoras seguían evolucionando. puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: • • Estas máquinas estaban construidas por medio de tubos de vacío. . se utilizó para procesar el censo de 1950 en los Estados Unidos. fue la primera computadora comercial. que disponía de mil palabras de memoria central y podían leer cintas magnéticas. sin necesidad de estar sobrecargando el servidor del cual depende. Se programan en nuevos lenguajes llamados lenguajes de alto nivel. Éste es un complemento ideal del lenguaje HTML. lenguaje desarrollado por Sun Microsystems. con la idea de capitalizar la fama de Java. Esta generación abarco la década de los cincuenta. pero luego fue renombrado con el nombre de JAVASCRIPT.

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Tercera generación Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3 Las características de esta generación fueron las siguientes:
• •

Su fabricación electrónica esta basada en circuitos integrados. Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones). Cuarta Generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". Quinta Generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la

320

capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. Manejo de lenguaje natural y sistemas de inteligencia artificial. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.

Luz Neón
El neón (del griego neos, nuevo) fue descubierto por William Ramsay y Morris Travers en 1898 por la destilación fraccionada del aire líquido. El neón es un elemento químico de numero atómico 10 y símbolo Ne. Es un gas noble, incoloro, prácticamente inerte, presente en trazas en el aire, pero muy abundante en el universo, que proporciona un tono rojizo característico a la luz de las lámparas fluorescentes en las que se emplea. Sus principales características son: Es el segundo gas noble más ligero, y presenta un poder de refrigeración, por unidad de volumen, 40 veces mayor que el del helio líquido y tres veces mayor

321

que el del hidrógeno líquido. En la mayoría de las aplicaciones el uso de neón líquido es más económico que el del helio.
   

Peso atómico: 20,183 uma Punto de ebullición: 27.1 K (-246 °C) Punto de fusión: 24.6 K (-248,6 °C) Densidad: 1,20 g/ml (1,204 g/cm3 a -246 °C)

El neón se encuentra usualmente en forma de gas monoatómico. La atmósfera terrestre contiene 15,8 ppm y se obtiene por subenfriamiento del aire y destilación del líquido criogénico resultante. El neón es el quinto elemento más abundante en el universo por masa, luego del hidrógeno, helio, oxígeno y carbono. Se encuentra en pequeñas cantidades en la atmósfera y en la corteza terrestre se halla en una proporción de 0,005 ppm. Se sabe que el neón se sintetiza en estrellas masivas durante las últimas etapas de éstas como gigantes o supergigantes rojas (durante la fase de fusión de carbono y oxígeno en neón y magnesio), o a veces como variables azules luminosas o estrellas Wolf-Rayet.

LUZ NEON Y LAMPARAS DE NEON. Son lámparas de descarga de gas que contiene gas neón a baja presión, se aplica a otros tubos rellenos de otros gases nobles para producir colores distintos. ¿Cómo se hace para que tenga luminosidad neón una lámpara? Se hace pasar por el tubo una pequeña corriente eléctrica, que puede ser alterna o continua, provocando que éste emita un brillo rojo anaranjado. La fórmula exacta del gas es típicamente la mezcla Penning (99,5% neón y 0,5% argón), que tiene un voltaje de ruptura menor que el neón puro. Las lámparas de neón son dispositivos de resistencia negativa, en el que incrementar el flujo de corriente por el dispositivo incrementa el número de iones, decrementando así la resistencia de la lámpara y permitiendo que fluyan corrientes mayores. Debido a esto, la circuitería eléctrica externa a la lámpara de neón debe proporcionar un método de limitar la corriente del circuito o éste se incrementará hasta que la lámpara se autodestruya. Para lámparas del tamaño de intermitentes, se usa convencionalmente un resistor para limitar la corriente. Para las de tamaño rótulo, el transformador de alto voltaje suele limitar la corriente disponible, a menudo contando con una gran cantidad de inductancia de fuga en la bobina secundaria.

322

Cuando la corriente que circula por la lámpara es menor que corriente del circuito de descarga de corriente más alto, la descarga luminosa puede volverse inestable y no cubrir toda la superficie de los electrodos. Esto puede indicar envejecimiento de la lámpara, y se aprovecha para las lámparas de neón decorativas que simulan una llama. Sin embargo, mientras una corriente demasiado baja provoca parpadeo, una corriente demasiado alta incrementa el desgaste de los electrodos estimulando la pulverización catódica, que recubre de metal la superficie interna de la lámpara y provoca que se oscurezca. El efecto de parpadeo está provocado por las diferencias en el potencial de ionización del gas, que depende del espacio entre los electrodos, la temperatura y la presión del gas. El potencial necesario para disparar la descarga es mayor que el necesario para sostenerla. Cuando no hay corriente suficiente para ionizar todo el volumen de gas en torno a los electrodos, sólo ocurre una ionización parcial y el brillo aparece sólo en torno a parte de la superficie de los electrodos. Las corrientes convectivas hacen que las zonas brillantes asciendan, de forma no muy diferente a las descarga en una escalera de Jacob. Un efecto de fotoionización puede observarse aquí, a media que la zona del electrodo cubierta con la descarga puede incrementarse por la luz brillando en la lámpara. APLICACIONES DE LAS LAMPARAS DE NEON. La mayoría de las lámpara de neón pequeñas, como las comunes NE-2, tienen una tensión disruptiva de entre 90 y 110 voltios. Esta característica permite su uso como reguladores de voltaje o dispositivos de protección de sobretensión simples. En los años 1960 General Electric, Signalite y otras marcas hicieron pequeñas lámparas de neón extra-estables para usos electrónicos. Idearon incluso circuitos lógicos digitales, memorias binarias y divisores de frecuencia usando neones. Estos circuitos aparecieron en órganos electrónicos de los años 1950, así como en alguna instrumentación.

323

Las lámparas de neón pequeñas se usan como indicadores en equipos electrónicos. Las mayores se usan en rótulos de neón, ya que debido a su bajo consumo eléctrico son buenas luces nocturnas. Debido a su relativamente rápido tiempo de respuesta, en los primeros desarrollos de la televisión las lámparas de neón fueron usadas como fuente de luz en muchas pantallas de televisión mecánica. También se usaron para muchos otros fines: dado que una lámpara de neón puede actuar como oscilador de relajación con la adición de una resistor y un capacitor, puede ser usada como una lámpara destellante simple u oscilador de sonido. Las lámparas de neón con electrodos de diversas formas llamadas tubos Nixie también se usan como displays alfanuméricos.

En las lámparas excitadas con corriente alterna, ambos electrodos producen luz, pero en las excitadas con corriente continua sólo brilla el electrodo negativo, por lo que puede usarse para distinguir entre fuentes de corriente alterna y continua, así como para asegurar la polaridad de las fuentes de continua. Las lámparas de tamaño pequeño también pueden rellenarse con argón o xenón en lugar de neón, o mezclado con ése. Aunque la mayoría de las características operativas permanecen iguales, las lámparas emiten una luz azulada (incluyendo alguna ultravioleta) en lugar del característico brillo rojo
324

anaranjado del neón. La radiación ultravioleta puede también usarse para excitar un recubrimiento de fósforo del interior de la bombilla y proporcionar así una amplia gama de diversos colores, incluyendo el blanco. Una mezcla de neón y kriptón puede usarse para obtener luz verde. También se utilizan en el arte, en anuncios publicitarios, en anuncios luminosos, y en tubos que se instalan debajo de los coches para que sean llamativos Neón para vitrinas y paredes En los últimos años se ha desarrollado un nuevo nicho en el que se emplea, profusamente, el NEON. Hay pocas cosas en el mercado que funcionen tan bien como los anuncios de NEON. La mercadotecnia moderna emplea el NEON para la realización de pequeños anuncios para las llamadas vitrinas, vidrieras, ventanas (según cada país) y también para paredes; es decir, ambos para interiores de comercios, locales o establecimientos.

Este nicho se ha desarrollado teniendo en cuenta que, dos de cada tres decisiones de compra, se toman en las tiendas. Por ello los comerciantes de todo el mundo se han dado cuenta de que la publicidad en el establecimiento comercial es la forma más efectiva de llegar al consumidor y tener un impacto en la decisión de compra. La publicidad directa en el establecimiento comercial es un instrumento de venta efectiva, porque proporciona PUBLICIDAD en el mejor lugar y en el mejor momento, donde el producto está a la venta y el comprador está listo para comprar.

325

Para todo esto nada mejor que el NEON para lograr óptimos resultados; inalcanzables con otros sistemas publicitarios que aspiran, sin fortuna por supuesto, sustituir al NEON. Así, una infinidad de marcas de aguas minerales, gaseosas, cervezas, ropa, etc., se promocionan con esta sencilla, económica e impactante manera moderna de empleo del NEON; nos referimos a los pequeños anuncios colgantes, con transformadores de reducidas dimensiones, construidos sólo con tubos de NEON soportados sobre sencillas parrillas metálicas casi invisibles. LASER NEON El láser de Helio-Neón fue el primer láser de gas construido y actualmente sigue siendo uno de los láseres más útil y frecuentemente utilizado. Esto a pesar del constante empuje de los láseres de semiconductores, que realizan cada vez más funciones que antes eran hechas con láseres de He-Ne. Los centros activos de este láser son los átomos neutros de neón, pero el bombeo de estos se realiza preferentemente a través de los átomos de helio.

CARACTERISTICAS ESPECTRALES DE LASER HELIO-NEON

326

En el diagrama de energía del sistema He-Ne se muestran las tres transiciones láser más importantes, las cuales ocurren 3.39 μm, 1.15μm y 0.638μm. Puede notarse que los niveles 21S y 23S del Helio prácticamente coincide con los niveles 3s y 2s del Ne. Como enseguida veremos, este hecho es fundamental para el bombeo de los átomos de neón. Los niveles 3s y 2s del neón poseen una vida media del orden de 10-7 segundos y pueden realizar transiciones radiactivas a los niveles 3p y 2p. Estos últimos niveles poseen una vida media del orden de 10-8 segundos y por tanto se puede establecer una inversión de población entre estos y los niveles 3s y 2s. Aunque cada uno de los niveles 3s, 2s y 1s se compone de hecho de cuatro subniveles y cada uno de los 3p y 2p de diez subniveles, las longitudes de onda
327

de emisión predominante son para la transición 3s -> 3p , λ =3.39 μm, para 3s-> 2s , λ=0.6328 y para 2s -> 2p, λ=1.15mm. El vaciado de los niveles inferiores de la transición láser se realiza por medio de las transiciones espontáneas de los niveles 3p y 2p al nivel 1s. Este último nivel es meta-estable y, por tanto, a menos que por algún mecanismo sea constantemente vaciado al nivel base del neón 1p, el nivel 1s podrá saturarse e interrumpir la oscilación láser (emisión láser).

LINEAS ESPECTRALES Las líneas espectrales son el resultado de transiciones espontáneas de electrones en los átomos del material desde el nivel de energía más alto al más bajo. El láser Helio-Neón depende de la transición de los niveles de energía del gas neón. En este caso hay varias posibles líneas de longitudes de onda en el espectro. Algunas de mas fuerte intensidad están muy cerca de la línea 0.6328 μm línea común del láser He-Ne rojo, pero esta no es la más fuerte. Hay también muchas líneas en el infrarrojo y algunas en la región del amarillo y en el anaranjado. Hay muchas posibles transiciones en el neón del estado excitado al estado de más baja energía que puede resultar en una emisión láser, donde las más importantes se mencionan en esta tabla.

FUNCIONAMIENTO DE LASER DEL HELIO-NEON

El bombeo del láser de He-Ne se realiza por medio de las colisiones que una descarga de electrones producida dentro del gas tiene fundamentalmente con los átomos de helio. Como resultado de estas colisiones, los átomos de helio son excitados a los niveles superiores 21S y 23S. La inversión de población en el neón ocurre debido a colisiones con átomos
328

excitados de helio. Como resultado de estas colisiones, los átomos de helio pasan a su estado base y los átomos de neón pasan a los estados 3s y 2s, creando una inversión de población entre estos estados y los estados 3p y2p. Entre estos niveles es donde la oscilación láser (emisión láser) puede ocurrir. La realización de una transferencia de energía entre átomos de helio y neón ocurre debido a: a) La proximidad de los niveles excitados de energía del helio y del neón, b) El hecho de que los estados 21S y 23S del helio son meta-estables, lo cual garantiza un tiempo suficientemente largo para colisionar con átomos de neón antes de que el helio decaiga espontáneamente; c) La más elevada presión del helio en la mezcla He-Ne, lo cual también reduce la probabilidad de que la excitación ocurra en la dirección opuesta, es decir Ne -> He. El vaciado de los átomos de neón del estado meta-estable 1s a su estado base ocurre fundamentalmente debido a colisiones con las paredes del tubo láser. Esto causa que al aumentar el diámetro del tubo la potencia de salida no aumenta, si no que disminuye.

329

ABSORCION Y AMPLIFICACION EN EL LASER He-Ne Mientras la luz se mueve a través del medio activo, tienen lugar dos procesos diferentes sobre la radiación: absorción y amplificación. En un láser de He-Ne estándar, la amplificación producida por el medio activo es del orden del 2%. Durante un paso a través del medio activo (desde un espejo al otro) la cantidad de radiación dentro, aumenta en un factor de 1.02. Por lo tanto, para conseguir amplificación de luz, todas las pérdidas, incluyendo las colisiones de los átomos excitados con las paredes del tubo de gas, absorción por parte de otras moléculas, etc. deben ser menores del 2%. El láser de He-Ne es un láser de 4 niveles, por lo que el tiempo de vida del nivel láser inferior debe ser muy corto. En el gas Ne, que es el gas activo del láser, la transición (decaimiento) desde el nivel láser inferior no es suficientemente rápida, pero se acelera por las colisiones con las paredes del tubo. Debido a que el número de colisiones con las paredes del tubo aumenta a medida que el tubo de hace más estrecho, la ganancia del láser es inversamente proporcional al radio del tubo. Por lo tanto, el diámetro del tubo de un láser de He-Ne debe ser lo más pequeño posible. La baja ganancia del medio activo en un láser de He-Ne limita la potencia de salida a potencia baja. En prototipos de laboratorio se consiguen potencias de salida del orden de 100 [mW], pero los láseres comerciales están disponibles sólo en un rango de salida del orden de 0.5-50 miliwatios [mW]. El acoplador de salida del láser de He-Ne es un espejo con un recubrimiento que transmite alrededor del 1 % de la radiación de la salida. Esto significa que la potencia dentro de la cavidad óptica es unas 100 veces mayor que la potencia emitida.

330

y 10-15 % de Neón gas.5 [cm] y está sellado por fuera. 331 . o Actuar como gran reserva de gas que reponga el Neón gas que está siendo absorbido por el cátodo. El tubo interior está rodeado por un tubo exterior grueso con un diámetro de alrededor de 2.ESTRUCTURA DEL LASER HELIO-NEON El láser de Helio Neón tiene tres estructuras principales: a) Tubo de Plasma del Láser de He-Ne: El delgado tubo interior tiene un diámetro de alrededor de 2 [mm] y una longitud de decenas de centímetros. una proporción de 1:6 a 1:10. El proceso láser. Los propósitos del tubo exterior son: o Conseguir una estructura estable que proteja de los movimientos el tubo interior y los espejos del láser. La mezcla de gases es 85-90% de Helio gas. está confinado dentro del tubo interior que está lleno de la mezcla de gases. que produce la radiación electromagnética.

La presión del gas es 0.01 atmósferas (» 10 [torr]). y un segundo espejo cóncavo que refleja el 100 %. La disposición de los espejos provoca que la radiación esté en planos casi paralelos 332 . los electrodos están conectados a una fuente de potencia de alto voltaje (AC o DC). En los extremos del tubo. Este espejo cóncavo tiene una distancia focal igual a la longitud de la cavidad. que refleja alrededor del 98 % de la luz que le llega. Está compuesta por un espejo plano. b) Cavidad Óptica del Láser de He-Ne: La cavidad de un láser de He-Ne convencional es una cavidad óptica semiconfocal.

Para iniciar la acción láser. habitualmente utilizan una fuente de potencia de Alto Voltaje DC (Corriente directa) de 2.c) Fuente de Potencia del Láser de He-Ne: Los láseres de He-Ne que producen una potencia de 1 [mW] (el tipo estándar que usan los estudiantes para experimentos de laboratorio). Esto 333 . Este voltaje se conoce como Voltaje de Ignición del láser. la resistencia eléctrica del tubo cae de repente a un valor bajo. Esto se produce por un pulso de máximo voltaje de la fuente de potencia. se necesita ionizar el gas dentro del tubo.000 [Voltios]. En el momento del comienzo de la descarga. El láser necesita una corriente constante (suministro constante de electrones). de forma que se emplea un suministro de corriente estable.

Porque nació para intemperie. 334 . 11. Porque dio movimiento a la estática publicitaria. 3. Porque viene en vidrio transparente. se conecta una Resistencia lastre muy cerca del ánodo. solo carteles pintados. Por lo tanto. Porque escribió con luz brillante. LAS 100 RAZONES VALIDAS PARA LA VIGENCIA DEL NEON 1. mejora su rendimiento. 4. 5. mientras la corriente aumenta. Porque dio luz propia a lo artístico de la artesanía de la época. 9. 7. 8. 6. Porque inauguró la cartelera luminosa en 1910… Antes. según la ley de Ohm esto es una resistencia eléctrica negativa (Disminuye el voltaje con aumento de la corriente). 12. Para superar este problema. Porque es de bajo consumo. 10.significa que el voltaje disminuye repentinamente. Porque se adapta a cualquier forma. El papel del resistencia lastre es limitar la corriente a través del tubo cuando la resistencia cae. Porque es de encendido instantáneo. Porque nació distinta… Lámpara sin filamento. Porque permitió ir gestando la creación de infinidad de rubros y oficios. en serie con la fuente de potencia. 2. Porque funcionando con secuencias.

Porque es frágil. es una obra de arte. Porque el haz de luz que genera. Porque inventó la luz difusa. 16. Porque no le afecta el sol. 18. 31. 19. 21. 33. Por su brillo particular. Por la calidez de sus reflejos. Porque es agradable a la vista. 23. 15. Porque inauguró las gargantas de iluminación.000 horas. 30. 34. Porque es insinuante. Por ser varilla de vidrio con pintura interior fluorescente. Porque identificó esquinas céntricas. es de 360º. 14. 25. 38. Porque su vida útil. 35.13. 32. 29. Porque es reparable. Porque no funciona con 110 volts. Porque es fácil de vender… Todo el mundo la conoce. Porque identificó ciudades. Porque hay misterios en su elaboración. 28. 335 . Porque un cartel con Neón. Porque fue testigo de infinidad de acontecimientos nocturnos alrededor del planeta. 37. 26. Porque dibuja y dibujó con luz brillante. Por la artística que la identifica. 27. Porque inauguró la fluorescencia. Porque es luz de Cátodo Frío. es de 30. Porque no le afecta el viento. 20. Porque brilla de noche. 36. 17. 24. Porque es decorativa. pero su efecto es fuerte. 39. 22. Porque brilla bajo la lluvia.

Porque todos sus nuevos vecinos nacieron pensando en ella. 62. Porque identifica marcas. Porque da movimiento y volumen en la carteleria actual. Por su variedad de intensidades. Porque brilla en los caminos… 58. 61. Porque no contamina la atmósfera en su elaboración. 55. 57. 41. se puede tocar. Porque los artistas la quieren mucho. Porque identificó esquinas barriales. 48. Porque emociona cuando se enciende. Por su variedad de colores. Porque no funciona con 220 volts. Porque estrenó variedad de colores en luz brillante. 43. 54. Porque no le hace mal el calor. a quien le guste. Porque es fácil de instalar. 60. 45. 51. Por ser tan fiel que mal instalado. Porque siempre fue humilde… No habla mal de sus jóvenes vecinos. Porque su vida útil se verifica en los 100 años que está cumpliendo. Porque el frío no le hace mal. 65. 53. 56. Porque supo convivir con sus “nuevos vecinos”. Porque iluminó noches gloriosas. 59. 52. Porque a la gente le gusta. Por ser la publicidad más económica. Un Siglo lo avala. Porque.40. 50. pero no lo es. Porque estando encendida. sabiendo que hay lugar para todos. 63. Porque hay obras de arte con luz de Neón. Porque realza contornos. 46. 64. puede aprender a hacerlo. 49. 44. también funciona pero dura poco… 66. 336 . 42. 47. Porque ver hacerla parece fácil.

Porque no contamina la atmósfera en su funcionamiento. Porque no hay que tenerle miedo. 89. Porque ilumina noches gloriosas… 76. Porque es de estar siempre allí. 69. Porque viene en varillas de vidrio de color (vitre. 82. 80.67. 81. Porque al diseñador le permite expresar. Porque su proceso de elaboración. 71. Porque es de los pocos oficios no reemplazado por la tecnología. Porque hacen referencia a ella en distintas composiciones musicales. Por su glamour en sensaciones. 78. 93. y verla brillar. 88. todos los habitantes del planeta la conocen. Porque es dimerizable. Porque está aggiornada. 83. 68. 72. solo hay que animarse… 77. Porque es buena.. Porque es reconfortante participar en un proyecto. 86. y también de acá para allá… 90. o es él. Porque sabe brillar de día. 85. 70. 92. Porque es la. Porque funciona entre 1 y 15 Kv. Porque es seductora. Porque en la actualidad. Porque está instalada en las memorias… 91. le hacen mala prensa para tratar de ubicarse.. 79. no le hace mal. 87. Porque la gente lo pide. 74. 73.aux). de las de antes… 337 . Porque viene en distintos diámetros. 75. Porque a un artista. Porque la nieve. Porque quiere ser reglamentada para que no la maltraten. no se modificó en el tiempo. Porque no genera calor cuando funciona. Porque sus nuevos vecinos. le permite crear. 84. a bajísimo amperaje.

Porque en corpóreas con luz interior. no acepta tipografías de bastón fino. Porque es inigualable. sin sombras en su recorrido. Porque su reflejo es constante. 97. 100. 99. Porque al arquitecto le permite diseñar. Porque participa en el diseño Slow. 95.94. 96. Porque quiere nuevos diseños. 98. 338 . Porque luce en corpóreos con frentes de acrílico.

el hombre se mueve. quiere ir cada vez más lejos. Pero también la curiosidad característica del ser humano. los barcos a vela. Historia Ya en el periodo precolombino los incas poseían un rudimentario pero eficiente sistema de caminos interconectados a lo largo y ancho de su Imperio. así como los servicios de recepción. la Tierra. Medio creado para el fácil el transporte acuático. sus mercaderías lograban llegar a su destino. Así es como. y para satisfacer estas ansias indudablemente debe inventar. El transporte comercial moderno está al servicio del interés público e incluye todos los medios e infraestructuras implicadas en el movimiento de las personas o bienes. A pie o a lomo de llamas.Medios de Transporte Fueron motivaciones históricas. por necesidad o curiosidad. El principal modo de comunicación era el marítimo. antropológicas y biológicas las que llevaron al hombre a desarrollar los diversos medios de transportes existentes. el transporte es y ha sido en Latinoamérica un elemento central para el progreso o el atraso de las distintas civilizaciones y culturas. Canales. Diferentes medios de transporte. pasando por la rueda. transportarse a través del espacio. lo ha incentivado a querer explorar su morada. desde los primeros troncos usados en forma de rodillos. Desde el primer momento de su existencia. Transporte Acuático Historia La llegada de los europeos —españoles y portugueses— a lo largo de casi toda América produjo grandes cambios en los medios de transporte. La apertura de esta vía fluvial se 339 . dado que era más eficiente y rápido para puertos naturales y para los lugares en los que se construyeron puertos. los aviones y los cohetes espaciales. El transporte comercial de personas clasifica como servicio de pasajeros y el de bienes como servicio de mercancías. entrega y manipulación de tales bienes. anda y desplaza. Definición Medio de traslado de personas o bienes desde un lugar hasta otro. por el cual trasladaban distintos tipos de mercaderías. el hombre fue creando los medios que le permitieron. Como en todo el mundo. A veces a través de puentes de cuerdas entre las montañas. tanto de mar como de los caudalosos ríos americanos. Otros pueblos utilizaron canoas o botes como medio de comunicación.

los fenicios fueron los primeros marinos que utilizaron la madera del Cedro para construir grandes y fuertes embarcaciones para aventurarse más allá de sus límites marinos. las dos terceras partes. Con estos cambios. y los modos más eficientes de viaje se realizaran por barco. pero sin duda el canal más importante es el canal de Panamá. Al igual que sucedía durante la edad antigua en el Mediterráneo y otras zonas del mundo. En Egipto se construyeron balsas con haces de caña. Los Vikingos. Éste une el Atlántico con el Pacífico a través del Istmo panameño. fuertes y robustos. provenían de las costas del Noreste de Europa y se encargaban de asaltar las costas de todo Europa. Los Vikingos eran altos. Después pensaron que uniendo varios troncos con ataduras podrían construir una plataforma firme o balsa (como le llamaron) . fue a causa y consecuencia de que las primeras rutas de transporte en las colonias fueran las vías fluviales naturales. El primer navío sin duda fue un tronco flotante el cual conduciría con pies y manos.creó para una reducción considerable del tiempo de viaje en el tráfico de mercancías por via marítima a escala mundial. En América Latina. Primeros barcos Hace 1200 años antes de Cristo. los ríos Amazonas y Paraná constituyen importantes vías fluviales de navegación. Barcos de vapor 340 . construyeron sobre una estructura de madera sólida que semejaba nuestra columna vertebral. permitía que empuñaran enormes remos e izaban las velas cuadradas. el hecho de que los asentamientos coloniales en América estuviesen establecidos por lo general en las costas. el hombre ha buscado la manera de viajar sobre el agua. junto con la adopción de la brújula marinera. los ríos o los lagos. hizo posible la navegación en mar abierto sin avistar la costa. Los antiguos romanos utilizaban embarcaciones a vela equipadas con varios bancos de remos para transportar a sus ejércitos hasta Cartago y otros teatros de operaciones. esto. en otros lugares se ahuecaron los troncos para ser piraguas o canoas. El temprano perfeccionamiento del transporte acuático estuvo estimulado por la tendencia de las poblaciones a concentrarse en las costas o las vías fluviales. La construcción de barcos y el aparejo y manipulación de las velas fueron mejorando con el tiempo. La Balsa Tomando en cuenta que nuestro planeta está cubierto por agua.

primer barco de vapor eficiente. para luchar o por mera curiosidad. Esto produjo un gran avance en el modo de producción del sector de las carnes. se encuentran equipadas con los adelantos tecnológicos más actuales y pueden navegar en altamar. también es utilizada como medio de salvamento a personas con un accidente acuático ya que son rápidas y cada vez un poco más grandes (para estas utilizaciones). embarcación que va sobre un colchón de aire a unos centímetros del agua o del terreno. Hizo su viaje inaugural en 1807 por el río Hudson desde la ciudad de Nueva York hasta Albania. El primer barco en emplear propulsión a vapor en una travesía transatlántica fue el barco estadounidense Savannah en 1819. nos encontramos con los yates que son pequeñas embarcaciones destinadas al uso de un pequeño grupo de personas. sea para comer. Hacia 1840. Moto ski Otro invento importante es la moto ski. fue construido por el inventor estadounidense Robert Fulton. aunque se usaron las velas durante parte de los 29 días de viaje. Yates Dentro de los últimos adelantos del hombre en medios de transporte acuáticos. a una cierta velocidad. las cuales ya no debían salarse para su exportación. que incluía unas cámaras frigoríficas. Durante la década de 1870 llegó a las costas del Río de la Plata el barco francés Le Frigidaire. levantan el casco del agua para alcanzar velocidades mayores. Otros productos perecederos se vieron beneficiados con la refrigeración. en el mismo tiempo un velero podía hacer sólo tres.Durante el siglo XIX se produjeron grandes avances gracias la tecnología producto de la energía a vapor. mientras que un barco de vapor podía hacer seis viajes entre América y Europa. por lo que se ve obligadamente a valerse de algún medio de locomoción. La utilización de la energía nuclear en los barcos en la actualidad está restringida a los navíos militares. que realizó la distancia del viaje de ida y vuelta de casi 483 Km. que es el resultado de la búsqueda del ser humano de crear aparatos para su diversión. en 62 horas. Embarcaciones modernas El motor diesel ha supuesto para los barcos modernos un funcionamiento más económico que ha reemplazado en gran medida a los motores de vapor. equipada con reactores o con alas parecidas a las de un avión o montantes que. Transporte Terrestre Historia El hombre empieza inmediatamente a desplazarse. El Clermont. 341 . Otros desarrollos en la navegación moderna son el aerodeslizador.

En América Latina. Ha sido en el siglo XX cuando más se ha desarrollado la red viaria en España. Durante siglos los medios tradicionales de transporte. A partir de este invento. En el siglo XX la formación e instalación de grandes corporaciones de fabricantes ha dado un gran impulso a la producción de vehículos tanto para el uso particular como para el transporte público y de mercancías. así como la exportación a terceros países. restringidos a montar sobre animales. En 1820. Hacia 1800 se hicieron carreteras de tierra al quitar la maleza y los árboles de estos senderos. aunque se han inventado numerosos elementos de diferentes formas y de acuerdo con las ideas de sus constructores. Sucesivos gobiernos han realizado grandes inversiones hasta conseguir unas vías básicas de gran capacidad (autopistas y autovías) que permiten el desplazamiento de gran número de personas y mercancías por el territorio español con niveles de motorización próximos a los grandes países industrializados. Carretera En las trece colonias americanas originales.Los primeros vehículos eran trineos de madera. El transporte terrestre mejoró poco hasta 1820. conectó todas las ciudades principales superando al resto de carreteras. Muchas de esas carreteras. sin embargo. finalmente lo construyeron de una sola pieza. Los mismos aprovecharon muchas veces las rutas construidas por los indígenas. 342 . uno de los más maravillosos de la historia. raramente excedían de un promedio de 16 Km/h. carros y trineos tirados por animales. la mula y el transporte sobre ruedas fueron introducidos por españoles y portugueses. Se desarrollan en este sitio algunos de los más aceptados y usados por la gente. que se extendieron hacia el oeste hasta el río Mississippi. El transporte terrestre se desarrolló más despacio. año en el que el ingeniero británico George Stephenson adaptó un motor de vapor a una locomotora e inició. Con el crecimiento económico de los últimos años se espera que Brasil y Argentina alcancen en poco tiempo cotas de utilización de vehículos al mismo nivel que los países más desarrollados. el primer ferrocarril de vapor. del estilo de los monociclos. se hacían casi intransitables durante los periodos de mal tiempo. en Inglaterra. el caballo. el principal modo de transporte terrestre era por reata de animales de carga y por caballos sobre los senderos de los nativos americanos. al unir los troncos con maderas transversales y atar todo el conjunto con tiras de cuero. se desarrollaron todo tipo de transportes terrestres. Posteriormente se produjo el invento de la rueda. y deben haber sido utilizados por tribus de todo el mundo. bíciclos. triciclos y cuatriciclos. entre Stockton y Darlington. en las que las empresas privadas cobraban un peaje por haberlas construido. Para transportar cargas pesadas se usaban troncos a modo de rodillos. la mejora de las carreteras denominadas turnpikes (autopistas).

Primeras diligencias Con la venida del comercio. con esto. 343 . siendo Argentina. El perro fue el primer animal que domestico el hombre. El arrastre y la rueda El inicio del transporte se dio cuando nuestros antecesores descendieron de los árboles e inician su vida nómada. Brasil y México los países con mayor cantidad de kilómetros de carreteras mejoradas y asfaltadas. así como las andinas Lima (Perú) y Paita. La rueda. la ciudad de México con sus vecinas Guadalajara y Jalapa. el ser humano se dio a la necesidad de establecer rutas comerciales y además de crear las primeras diligencias jaladas por caballos para transportarse de un lado a otro a las mismas personas y sus pertenencias o mercancías. Animales como medio de transporte Debido a que el hombre no tenía la suficiente fuerza para cargar y transportar alimentos o utensilios para ellos mismos se vio en la necesidad de domesticar a los animales. después utilizo animales más grandes y fuertes para transportar cosas sumamente pesadas junto con el mismo hombre. se inicio la forma de transportar en algo sus alimentos ya que el hombre en si es débil como animal de transporte. ya alimentándose de lo que los animales producían o matándolos para aprovechar así la carne y piel para diferentes usos. en la actualidad muchos países latinoamericanos cuentan con sistemas de carreteras más o menos aceptables.500 años y con esto inicio un cambio en el medio de transporte ya que así logro trasladar de un lado a otro sus alimentos más fácil y rápido. También en Brasil se construyeron carreteras costeras. invento importante que el hombre desarrolló hace 5. Y así también ideo la forma de que solo transportaran cosas. A pesar de ello.Ya en el siglo XVIII existían carreteras que unían las actuales ciudades argentinas de Tucumán y Buenos Aires. se acordó entre los países del sector construir una carretera Panamericana que uniera todo el continente desde Alaska a Tierra de Fuego. sino que también aprovecharía el hombre como alimento. En 1928. Ya en 1940 el 62% del tramo correspondiente a América Central estaba asfaltado y el 87% de América del Sur. El hambre obligo al hombre a moverse para asegurar su comida.

en Inglaterra. Trevithick. Como otras tantas técnicas de la antigüedad. también las ruedas se fabricaron de este material. Habían construido también un tipo de remolque con vías de madera para transportar naves a través del istmo de Corinto. Richard Trevithick. entre 1801 y 1804 terminó su primer coche grande de vapor: una enorme caja de hierro sobre ruedas 344 . Las vías de estas minas estaban formadas por dos maderos separados entre sí por pocos centímetros. luego. En el siglo XV o XVI vuelven a aparecer las vías: posiblemente aparecieron por primera vez en las minas alemanas. William Murdock. lo que resultó mucho más práctico para el deslizamiento del vagón. esta también se perdió durante la Edad Media. La primera locomotora En todas partes había mercaderías que tenían que ser transportadas rápidamente y con seguridad de un lugar a otro. Beaumont colocó sobre ellas hierro plano. del eje de la vagoneta sobresalía un perno de hierro que entraba en ese espacio y evitaba que las ruedas se deslizasen de los maderos. en las cuales las cargas se transportaban en pequeños vagones. Los griegos habían descubierto que un hombre o un caballo podían arrastrar una carga ocho veces más pesadas si lo hacían sobre una vía en lugar de hacerlo sobre un camino irregular. En 1769. El hombre descubrió tempranamente que era más fácil tirar de un carro o trineo si preparaba dos surcos de piedras lisas o de tablas de madera paralelos entre sí. Hacia fines del siglo XVI. por el mismo motivo. inmediatamente pensamos en las vías. Este último tipo de vía era utilizado por los griegos para llevar sus carros adornados a los templos durante las festividades religiosas. un joven ingeniero de minas de Cornwall. hacía experimentos con una máquina de Watt. Sin embargo. las vías tienen dos mil años más que la locomotora. construyó años después un coche de vapor que no logró imponerse. en la década del 90 del siglo XVIII se entusiasmó con la idea del vehículo de vapor y preparó en su taller un par de pequeños modelos de locomotoras. los alemanes llevaron a Inglaterra el "Tramway". Todos estos ensayos fueron fracasos. como lo llamaban en este país. Al desgastarse estas vías de madera por los pesados vagones. así como había personas que querían viajar cómodamente y con rapidez. que consistía en una máquina de vapor montada sobre un carro de tres ruedas. varios inventores pensaron en la unión del vapor y la rueda. o los cavaba en un camino rocoso. Para obtener a bajo precio fuerzas motrices considerables. para modernizar sus minas. El técnico norteamericano Oliver Evans. y así fue como llegaron las vías al país que luego sería la cuna del ferrocarril. Hacia fines del siglo XVIII se le ocurrió a un ingeniero inglés colocar en las ruedas la protuberancia que antes estaba en las vías. el francés Nicolas Cugnot construyó un coche de vapor. Los primeros frutos de esa asociación fueron verdaderos monstruos. su pesado "fardier" (carromato).Ferrocarril Las vías Si hablamos del ferrocarril. También los romanos cavaron surcos en muchos de sus caminos. que eran las mejor instaladas en toda Europa. Alrededor de 1630 se le ocurrió a un tal Beaumont unir ambos maderos con durmientes y aumentar también la distancia que los separaba.

El progreso de Gran Bretaña en este terreno sirve de disparador a otras naciones. Posteriormente. y se convirtió así en el primer viaje en ferrocarril. laLocomotion Nº 1 arrastró un tren cargado con 600 pasajeros a lo largo de los 35 kilómetros que separan Stockton de Darlington. Colocó sobre los raíles su máquina de vapor. Los señores sesudos dudan entre los caballos y las locomotoras.con una chimenea en el centro. La gente estaba convencida de que las ruedas patinarían sobre la superficie lisa a medida que se aumente su peso. el acoplamiento del cilindro de alta presión con el cilindro de baja. En 1829 se proyecta una línea Liverpool-Manchester. etc. realizó al fin. Londres-Edimburgo y Londres-Bristol. veintiuno más para pasajeros comunes y finalmente cinco vagones carboneros. los hizo metálicos. Para los americanos. Primero. se aumentó el volumen de la caldera y el diámetro de las ruedas. y tras haber reparado muchas locomotoras y haber construido otras. destinado a rodar por vías con una pendiente superior al 6%. La moderna locomotora nace de tres nuevos perfeccionamientos. Finalmente se deciden por las últimas. George Pullman hace del tren un palacio. llamado por muchos el "padre del ferrocarril" no compartía esa opinión generalizada. para reducir la pérdida de energía. en 1825. en total treinta y tres. pero no tuvo demasiado éxito. y así es como cada una comienza a proyectar su propio sistema ferroviario. la siguen las líneas de Londres-Newcastle. A partir de 1870. el ferrocarril se ha diversificado. A partir de 1830 surgen en Inglaterra múltiples líneas de ferrocarril. buscando también la comodidad. Para 345 . dando paso a variados tipos de trenes. George Stephenson. fumador. tales como: El tren de cremallera: En 1862 el suizo Niklaus Riggenbach inventó el ferrocarril de cremallera. tapices. que arrastraba seis vagones con carbón y harina. el tren ha conseguido su mayoría de edad: alcanza velocidades del orden de los 100 kilómetros por hora. Traza la mayor parte de las vías en Inglaterra y en el extranjero. empeñados en reconocer todo su inmenso territorio. He aquí la primera locomotora. era vital llegar cada vez más lejos y con mayor rapidez. El 27 de septiembre de ese año. En las grandes líneas hay bar. Robert Stephenson no sólo perfecciona cada vez más las locomotoras de su padre George. sino que estudia metódicamente el problema de la infraestructura: desmontes. Con el tiempo. Para conseguirse tal grado de perfección muchas cosas mejoraron: por ejemplo. para realizar sus obras. y recorrió nueve millas y media en cuatro horas y cinco minutos. La Londres-Birmingham se inaugura en 1838. en 1868 George Westinghouse inventa el freno de aire comprimido que reemplaza a los guardafrenos y sus incómodos frenos de mano. Hacia mediados de siglo. balasto y colocación de los raíles. la primera línea destinada no sólo a las vagonetas de carbón. Después vienen las grandes líneas. un vagón para los invitados especiales. luego el aumento de la temperatura de los 200º C a los 300º C. En este tramo ferroviario tuvo lugar una competición entre varias locomotoras presentadas por sus propios constructores. también debió construir puentes. Años después presentó la segunda. alrededor de la cual se habían instalado varios asientos para los viajeros. por último. y que fue ganada por la Rocket de Stephenson. artesonados. sino también a los viajeros. El mismo Stephenson guió la máquina.

La línea ferroviaria a La estación más El tren de pasajeros más largo del mayor altitud se halla en grande del mundo mundo circulaba en Holanda en Perú. El tren de cremallera que sube la pendiente más pronunciada (47%) es el del monte Pilatus. Los más conocidos son el TGV (Train à Grande Vitesse) francés y el tren bala japonés. La Blekinsop de 1812. La velocidad máxima de estos trenes-bala es de 210 km/h. con algunos tramos es la Grand 1988. construyeron en los años 40.6 km. En de los cuales 37 km/h. Se trata de un transporte compuesto de vehículos que circulan por una plataforma de rieles o vigas. que marcha a una velocidad muy reducida y además. York. El TGV alcanza en la actualidad los 260 kilómetros por hora. Tenía 60 vagones. en Suiza. sobre el nivel del mar. 346 . por lo general elevada sobre la superficie. Estos monstruos de locomotora diesel 1938 la velocidad máxima de una 40 metros de largo y 534 se construyó en máquina de vapor: 202. Trenes de alta velocidad. recorrer estos 9500 km transcurren por se tarda más de 8 días. y el monocarril sustentado. donde los vehículos cuelgan bajo la estructura. toneladas de peso se Alemania en 1912. denominado TGS. Los estudios de cara a la creación de un tren de alta velocidad (TGV) comenzaron en Francia en 1967. es una locomotora para trenes de mercancías. Hay dos tipos básicos de monocarriles: el monocarril suspendido. El trayecto ferroviario El túnel del Canal En Japón y en Alemania se han más largo del mundo de la Mancha tiene probado trenes experimentales comienza en Moscú y 50 km de longitud. máquina de caldera común. capaces de viajar a más de 400 termina en Najodka. debajo del mar. año en que se realizó el primer tren de turbina de gas.73 km/h. Los Japanese National Railways inauguraron su primera línea de gran velocidad Tokio-Osaka (515 km) el 1 de octubre de 1964. Son los trenes de finales del siglo XX que recorren largos trechos a muy alta velocidad. no tubular. compitiendo prácticamente con el avión. El primer monorraíl o monocarril se construyó en Irlanda en 1889. Otros datos interesantes relacionados con el ferrocarril: Las mayores locomotoras de vapor fueron las Big La primera La locomotora Mallard alcanzó en Boy.construirlo se inspiró en el sistema del inglés John Blekinsop. El monorraíl. con una a más de 5000 metros Central de Nueva longitud total de 1. circula por vías de cremallera. En 1978 fue entregado el primer tren eléctrico TGV. en el cual los vehículos apoyan sus ruedas sobre los rebordes interiores de los rieles.

quien para una exposición industrial en Berlín construyó una pequeña locomotora eléctrica que arrastraba tres vagones con seis pasajeros en cada uno. con el Ferrocarril entre Baltimore y Ohio. si bien benefició el transporte de mercancías y pasajeros. La corriente era conducida por las vías.000 Km. por lo que las estaciones y los túneles estaban siempre llenos de humo. había en Estados Unidos 1. en 1941 se crea la Red de Ferrocarriles Españoles (RENFE). así como también el de los metros o subterráneos. En parte estuvo estimulado por la carencia de vías fluviales de navegación interior. en estructuras elevadas o en carriles de uso exclusivo. En las últimas décadas. En 1839. fue diseñada 347 . Tenía locomotoras de vapor. La red ferroviaria —financiada por capital francés. inglés o estadounidense —. y desde 1850 hasta 1910 el crecimiento del ferrocarril fue espectacular. la mejora de la infraestructura viaria y el incremento de la motorización de las familias y las empresas han supuesto una disminución acusada en el número de viajeros y de mercancías transportadas por el tren.4 km. la decisión tomada en 1844 de dotar de un ancho de vía a la red española de ferrocarril distinto al del continente europeo aisló a España del resto del continente por este modo de transporte. pero pronto se comprobó que el sistema era muy peligroso y Siemens introdujo la conducción aérea. No obstante. Las estaciones tienen andenes altos para permitir la entrada y salida rápida de los viajeros al mismo nivel.767 Km. se inauguró en Londres en 1927. Llevaba unas calderas especiales que nunca funcionaban correctamente. El precursor de la técnica de la corriente de alta tensión fue Werner von Siemens. del trolebús. La implantación del ferrocarril en España fue relativamente rápida. compañía de carácter estatal para la explotación de una gran parte del trazado ferroviario. si bien el verdadero desarrollo se inició el 4 de julio de 1828.El subterráneo En el año 1879 nació el tren eléctrico. utilizado para el transporte de correspondencia. la implantación de servicios de alta velocidad en los últimos años ha supuesto una considerable recuperación de viajeros en trayectos muy concretos de la red. tras Inglaterra y Francia. Después de un siglo de explotación privada del ferrocarril. La primera línea ferroviaria fue inaugurada en 1848 entre las ciudades de Barcelona y Mataró. La construcción del ferrocarril estimulaba en gran parte la colonización y el desarrollo del Oeste. A partir de 1850 este modo de transporte comenzó su expansión en América Latina. el trazado se había incrementado hasta 8. El subterráneo es un transporte rápido de tecnología subterránea que utiliza trenes de pasajeros que van por rieles a alta velocidad y funciona en túneles. Hacia 1870 ya se contaba con una red que era la tercera de Europa en extensión. Hacia 1830. La distancia entre estaciones varía entre 1200 y 4500 metros. El primer ferrocarril subterráneo sin conductor. de ferrocarriles de vapor. poco después de que la línea de ferrocarril de Stephenson empezara a dar servicio en Inglaterra. Sin embargo. a diferencia de otros países del entorno. La línea que recorría cubría una distancia de 6. El primer ferrocarril urbano subterráneo fue inaugurado el 10 de enero de 1863. El primer ferrocarril de Estados Unidos fue establecido en 1827. en Londres. Con este sencillo modelo empezó el desarrollo del tranvía eléctrico.

este celerífero sufrió una gran metamorfosis. de Alemania. y con las manos sostenía una vara de madera.generalmente respondiendo a las necesidades comerciales de sus propietarios y países de origen y no atendiendo a las necesidades de los países latinoamericanos. pero con las ruedas de bambú. De este modo. en forma parecida al movimiento de un patinador. en el litoral. inventó el vehículo de una sola vía. Para moverse. las líneas férreas tenían sus terminales en las ciudades portuarias: Buenos Aires y Bahía Blanca. Siglos más tarde aparece una auténtica bicicleta entre los dibujos de Leonardo da Vinci. Ya entre los egipcios encontramos una máquina rudimentaria compuesta por dos ruedas unidas por una barra. Con este impulso. en el río Paraná. de dragón o de ciervo. al que llamó "máquina andante". colocadas una detrás de otra. precursora de la bicicleta y la motocicleta. La persona se mantenía sentada sobre una pequeña montura. En Brasil. Fue por 1945 cuando los ferrocarriles comenzaron a ser deficitarios. Drais de Sauerbronn comenzó por introducir unos resortes debajo del sillín y después creó el manillar. Este invento. el vehículo adquiría una velocidad casi idéntica a la de un coche. y ya no resultándoles beneficiosos a sus dueños. dando paso al transporte por carretera. Lo mismo ocurrió en la ciudad uruguaya de Montevideo. casi todo el sistema ferroviario de Latinoamérica fue estatizado. estaba basado en la idea de que una persona al caminar desperdicia mucha fuerza por tener que desplazar su peso en forma alternada de un pie al 348 . Consiste en un listón de madera. esa misma rigidez hacía que todas las variaciones del terreno repercutieran en el cuerpo de su montura. a principios de siglo. dado que allí se concentraba la producción del preciado café. muchas veces bajo un falso discurso nacionalista. y montado sobre dos ruedas. consistía en una especie de carrito de dos ruedas. El caso mexicano es paradójico. En Argentina. tanto de pasajeros como —y sobre todo— de mercancías. La verdadera historia de la dos-ruedas comienza en París en 1790. y Rosario. la red ferroviaria se extendía a través de la meseta de São Paulo. que giraba en la dirección hacia la cual quería ir el conductor. terminado en una cabeza de león. gracias a que el barón Karl Christian Ludwig Drais von Sauerbronn. unida a la rueda delantera. la base fundamental del transporte de los revolucionarios de Emiliano Zapata. También en China encontramos una máquina muy similar. al que también se llama "caballo de ruedas". colocada en el centro de un pequeño marco de madera. Esta "máquina andante". Posteriormente. No tiene articulación alguna y para las maniobras hay que echar pie a tierra. Sus brazos descansaban sobre apoyabrazos de hierro. empujaba alternadamente con el pie izquierdo y el derecho hacia adelante. Bicicleta Los antepasados de la bicicleta se remontan muy atrás en la historia. dado que los mismos ferrocarriles utilizados para el transporte de productos terminaron siendo. en 1813. año en en que el conde de Sivrac inventa el "celerífero".

esta bicicleta se destaca por lo sencillo que resulta transportarla y guardarla. el cojinete de bolas. Dunlop sacó entonces dos trozos de goma de jardinero. Esta máquina. Drais von Sauerbronn logró crear este sencillo vehículo que le permitió al hombre evitar ese trabajo. Esta innovación merece un nuevo bautismo. Otros inventores agregaron los rayos de alambres. El suizo Hans Renold inventó la cadena. bombeó aire en su interior y luego los sujetó en las ruedas posterior. J. llamado "Penny Farthing". el escocés Kilkpatrick Mac Millan retomó la idea de Drais von Sauerbronn. El desarrollo de una buena llanta. sin elásticos.otro. los unió n forma de anillo. Bicicleta plegable: Diseñada en 1965 por Alex Moulton. El inglés H. El niño se quejó de los duros golpes que recibía al andar en ese vehículo. disminuyéndolo y haciéndolo al mismo tiempo más veloz. denominada "draisiana" en honor a su inventor. Diez años después. Con su evolución se 349 . Bicicleta de carreras: Este tipo de bicicletas tiene como principal característica su diseño aerodinámico para el ciclismo de competición. Otra teoría dice que el inventor de los pedales fue Pierre Michaux. y así la bicicleta terminó de conformarse. los deportistas aumentaron enormemente la circunferencia de la rueda delantera y disminuyeron la de la rueda posterior. A lo largo del tiempo fueron apareciendo otros diversos modelos de bicicletas como: Humber: La bicicleta Humber para señoras salió al mercado en 1905. y la "draisiana" se convierte en "velocípedo". y con esto la bicicleta alcanzó su diseño actual. se debió al escocés John Boyd Dunlop. En vez del cuadro romboidal de las bicicletas para hombres. Veinte años más tarde. ayudándose con largas barras. quien las construyó para que su hijo pudiese ganar una carrera a sus compañeros. Así. basándose en el modelo de Fischer. transformando el movimiento abrupto de golpes de los pies en uno giratorio continuo que daba al vehículo un movimiento mucho más sereno. Posteriormente. entre las ruedas delantera y trasera. siendo uno de los transportes más populares del mundo. Este tipo de bicicleta fue llamado "bonashaker" (sacudidor de huesos) debido a sus ruedas de madera. implicaban para el conductor pruebas casi acrobáticas. El francés Ernest Michaux creó la primera fábrica de bicicletas. evolucionó rápidamente. La innovadora suspensión en sus dos ruedas contribuyó a que fuera fácil de manejar además de cómoda. que movía con los pies. que posibilita transmitir la fuerza generada por las piernas del ciclista de la rueda dentada del centro (plato) a una más pequeña ubicada en el eje posterior (piñón). Este modelo. En Inglaterra varias fábricas iniciaron a su vez la construcción de bicicletas con propulsión en la rueda delantera. el asiento con suspensión. y el vehículo alcanzaba altas velocidades. su hijo ganó la carrera. el cambio de velocidades y la rueda libre. Agregó una manivela a la izquierda y a la derecha del eje de la rueda trasera. las de señoras tenían una estructura abierta acorde con los vestidos largos de la época. Posteriormente Dunlop patentó su invento. Llevó la manivela y los pedales al centro. la rueda posterior era un poco más pequeña. el freno de contrapedal. Lawson solucionó el problema del tamaño. el alemán Philipp Heinrich Fischer colocó pedales en la rueda delantera.

que construyeron en 1885 una moto de cuadro y ruedas de madera. Recién en 1897 se toma en serio la motocicleta. al aparecer en el mercado la máquina de los hermanos Eugène y Michel Werner. entró muy pronto en el lenguaje corriente para referirse a todos los biciclos equipados con motor. Los historiadores se disputan todavía cuál es el padre de esta primera máquina. en cuya realización intervino tres años más tarde. que reduce la resistencia al aire del cuerpo. quien. había presentado la patente de un triciclo de motor a petróleo. a partir de 1946. marca presentada por los hermanos Werner. Estos dos periodistas de origen ruso montaron un pequeño motor en una bicicleta. cosa que suelen hacer los ciclistas profesionales. Este motor desarrollaba 0. Se trata de una moto munida de un salpicadero de protección.introdujo el manillar en caída. Este tipo de vehículo se desarrolló a partir de 1919 y tuvo un gran éxito con la Vespa italiana. La transmisión entre la parte delantera y trasera está sincronizada. esto significa que la cadencia es la misma para los dos. con un año de anterioridad. muy útil para usar en terrenos escabrosos. Al principio lo colocaron en forma horizontal encima de la rueda trasera. Fue inventado por Georges Gauthier y fabricado en 1914. Si nos atenemos a la estricta noción del dos ruedas. Mountain bike: La bicicleta de montaña o todo terreno fue desarrollada durante la década de los setenta. La primera motocicleta nace de la combinación de la bicicleta de pedales y del automóvil. con una correa de cuero que lo unía a la rueda delantera. En 1902 apareció en Francia el scooter o ciclomotor con el nombre de Autosillón. Esta máquina no tuvo mayor éxito. un manillar y unos pedales. como los de las montañas. El éxito no se hizo esperar y ya en 1898 se comenzó a fabricar. Tándem: La bicicleta tándem es una bicicleta de dos plazas. Un tándem es una bicicleta normal y corriente. que nació en los Estados Unidos en 1972. El bicicross se ha convertido en la actualidad en una disciplina deportiva completamente diferenciada. Lamotocicleta. y fue diseñado por 350 . Bicicross: Es una pequeña bicicleta con ruedas de 20 pulgadas. Por su parte. a la que se une un sillín. denominación que adquirió debido al zumbido que emite su tubo de escape) es el scooter más conocido. sin suspensión y muy maniobrable. los ingleses le atribuyen la paternidad a Edouard Butter. y se caracteriza por ser más liviana y tener cambios adaptados. este honor le corresponde a los alemanes Wilhelm Maybach y Gottlieb Daimler. luego delante del manillar. Las dos personas que se suben a la misma deben pedalear para avanzar. frena y maniobra. La posición aerodinámica aumenta al subir el sillín. La persona que va en la parte delantera es la que pone los cambios. Estos inventos al principio no tienen ninguna aceptación. de pequeñas ruedas y con un cuadro abierto que permite al piloto viajar sentado. La Vespa ("avispa" en italiano. denominada velocipedraisidevapor. Motocicleta El 5 de abril de 1818 se presentó en París una draisiana equipada con una caldera de vapor en la parte trasera. y motor de combustión interna de acuerdo con el ciclo de 4 tiempos.5 caballos y permitía una velocidad de 18 km/h.

Si bien esta máquina dependía del gas de la cañería común. Empezó en 1872 con el motor de gas de Nikolaus Otto. investigaron en otra dirección: el motor de gas. Desde su creación ha aparecido una gama amplísima de estos vehículos baratos. Otros inventores. de una rueda de paletas que le impulsaba por el agua. En 1884. las llantas neumáticas. parece mucho más delicado que el anterior. entre tanto. La Lambretta.2 kilómetros por hora en lugares poblados. era un enorme barco anfibio que había sido construido para dragar el río Schuykill y estaba provisto por una parte. ligeros y de fácil manejo. una vez solucionados los problemas de la generación de corriente y su distribución. significó un gran adelanto.Corradino d´Ascanio. de cuatro ruedas para caminar por tierra. el inglés Edward Butler equipó en Londres un pequeño triciclo con un motor de nafta de dos cilindros. El scooter tuvo gran popularidad entre los jóvenes. utilizó por primera vez en 1875 gas de petróleo para mover un pequeño coche por las calles de Viena. cuyas características principales son las ruedas pequeñas y el cuadro abierto. En 1910 apareció el sidecar. movido por una máquina de Watt. El tercer vehículo a vapor fue presentado en 1804 por Oliver Evans. también de Italia. que data del año 1784. y por otra. ruidoso y temible. gasificador y encendido eléctrico. un inventor vienés. La historia del automóvil recorre las tres fases de los grandes medios de propulsión: vapor. Animados por estas creaciones. electricidad y gasolina. Durante la segunda mitad del siglo XIX se manifestó la necesidad cada vez mayor de un vehículo mecánico que pudiese transitar por las calles. un carrito con una rueda lateral que se incorpora al costado de la moto (aunque ya había aparecido años antes pero en las bicicletas). El nacimiento del automóvil llegó gracias al invento de Dunlop. pero también se necesitaba de un motor. con sus delgadas ruedas y su pequeña chimenea en la parte posterior. En Alemania. en cambio. Otto utilizó el sistema de émbolocilíndrico de la máquina de vapor. que prohibía a los vehículos sin caballos transitar a más de 6 1/2 kilómetros por hora en los caminos libres y 3. Siegred Marcus. La invención del coche de vapor fracasó por ser una máquina muy pesada y de difícil conducción. Era uno de los inventos más adelantados para esa época. pero no tuvo demasiado éxito por la "ley de la bandera roja". Esta exigencia se cumplió con la aparición del motor eléctrico. pero en su motor -y desde entonces en todos 351 . El segundo es el triciclo de William Murdock. fue la rival más importante de Vespa. El automóvil El intento de obtener una fuerza motriz que sustituyera a los caballos se remonta al siglo XVII. se produjo un progreso permanente. El primer vehículo a vapor es el "carromato" de Nicolás Gugnot. Etienne Lenoir. demasiado pesado. muchos otros inventores construyeron diversos vehículos impulsados con vapor. construyó en 1883 una máquina que era impulsada con gas de carbón común: llegó a colocarla sobre ruedas y viajaba en ella. un ingeniero francés.

Benz adoptó un invento inglés. Otto. Después surgieron variedades de autos y hoy en día la industria automotriz es una de las grandes e importantes del mundo. La fuerza del motor era transmitida a las ruedas posteriores por dos cadenas y un simple embrague intercalado en ellas. podía impulsar un pistón más rápido. si no que es una necesidad. mientras Karl Benz ya había construido unos meses antes un vehículo impulsado por gasolina. se consideraban como un lujo y ahora se puede considerar que hoy en día el tener un auto no es un lujo. poco a poco fueron surgiendo más inventos con la aplicación del petróleo y buen acero barato que fue el que utilizo en su producción Henry Ford. ubicado sobre una delgada barra dispuesta delante de un banquito que servía de asiento al conductor. Una firma francesa constructora de coches adquirió la licencia para la fabricación de automóviles Daimler. en cambio. Gottlieb Daimler ingresó en las fábricas de Otto y contribuyó en gran escala a mejorar el motor de gas. Para superar las dificultades de las curvas -la rueda exterior tenía que moverse más rápidamente que la interior-. K.los motores de explosión. El vehículo se conducía con ayuda de un pequeño volante. La probó en 1885. tenía el aspecto de un carruaje al cual se habían olvidado de atarle los caballos. En 1882.la combustión tenía lugar en el interior y no en una caldera especial. y se convirtió así. Wilhelm Maybach. Las guerras desarrollaron nuevas clases de automóviles. opinaba que su motor sólo servía para una máquina fija. con lo que se creó el automóvil. Estaba convencido de que allí se encontraba la máquina ideal para el tránsito por las calles. El conocimiento de Benz de una bicicleta del tipo "sacudidor de huesos" lo indujo a pensar en la posibilidad de mecanizar el tránsito en las calles. Ese combustible no sería costoso. Luego vio el motor de gas de Lenoir. ya no era un carruaje sin caballos. con el descubrimiento del petróleo. Starley en 1877. y sus ideas se orientaron en la misma dirección que las de Daimler. y esto dio origen al enorme progreso de esta industria en 352 . sino un medio de transporte de forma propia. Daimler abandonó finalmente la fábrica de Otto y construyó su primer vehículo alimentado por gasolina: una motocicleta. tales como los tanques y autobuses. el diferencial. Benz inventó su propio sistema de encendido eléctrico y rodeó al motor de una envoltura por la cual circulaba agua fría como medio refrigerante. Gottlieb Daimler construyó en 1886 su primer vehículo de cuatro ruedas. El coche que finalmente expusieron en la Exposición Mundial de París de 1889 -un vehículo para cuatro personas con motor refrigerado por agua y con una caja de cuatro velocidades-. El primer vehículo de Karl Benz alimentado con gasolina fue un triciclo con motor de cuatro tiempos. Gottlielo Damler descubrió que utilizando petróleo. basado en el principio de Otto. También él llegó a la conclusión de que uno de los productos derivados del petróleo se adecuaría para la combustión en un motor de gas. Desde 1887 hasta 1889 trabajó en colaboración con su jefe de ingenieros. tratando de perfeccionar sus modelos. Todos los detalles de este coche fueron construidos personalmente por karl Benz. en 1885 en el primer automóvil. como en las máquinas de vapor. patentado por J.

Los Estados Unidos de América necesitaban un medio de transporte popular. 353 . Un modelo perfeccionado. En 1852. pero no pudo regular su velocidad. Charles E. Con su segundo modelo alcanzó una mayor perfección. en una época en que la mayoría de los coches europeos eran construidos uno por vez por los mecánicos. sitio que retuvo hasta la Primera Guerra Mundial. Ford. Él estaba convencido de que América necesitaría. Este vehículo destinado al transporte colectivo circulaba sobre rieles de fundición y era tirado por dos caballos. cantidades ilimitadas de automóviles. consiguió construir un vehículo con motor de gasolina. John Stephenson construyó el primer tranvía urbano. por un módico precio.Francia. En 1896 circuló por Detroit el primer coche con motor de gasolina conducido por su constructor. no fue explotado en ciudad. convirtiéndolo en uno de los hombres más ricos del mundo. a los deportistas y a la gente de dinero. También Karl Benz vendió una gran cantidad de automóviles a Francia. En 1832. que fue ganada por un Daimler con una velocidad promedio de 32 kilómetros. de lujo. En 1893. Duryea. más que inventor. invento con el cual se construyó la línea de la Sexta Avenida de Nueva York en ese mismo año. Ya sea un autobús o una combi. El origen de los transportes urbanos El célebre matemático y pensador francés Blaise Pascal fue quien propuso. ante todo. con sus enormes distancias y su riqueza rápidamente creciente. en 1661. nombre de la hija de un socio de la firma francesa que había adquirido la patente a Daimler. que la llevó a ocupar el primer lugar entre todos los países europeos. entre Manhattan y Harlem. Henry Ford logró este objetivo y su coche se vendió con éxito. en Nueva York. un mecánico de ese país. En 1894 tuvo lugar en Francia la primera carrera de automóviles (París-Ruán-París). pero no al hombre común ni a satisfacer su necesidad diaria. las autoridades se vieron en la necesidad de crear el transporte urbano para el alto número de habitantes y también por la necesidad en que se ven obligados a recorrer distancias largas. a intervalos regulares. Él conocía los defectos principales de los autos europeos: estaban destinados. Tranvía El tranvía fue inventado en 1775 por el inglés John Outram. El 19 de enero de 1662 el Consejo del Rey les otorgó a los financieros del proyecto la autorización de establecer la circulación de carrozas públicas en la ciudad de París y alrededores. Henry Ford. barato y que consumiese poco. Ford levantó una fábrica propia para la construcción en serie de este coche. un sistema de carrozas que circularan en trayectos determinados de París. Sobre una cinta transportadora de 300 metros de largo se construían los coches uniendo sus diversas partes. Los Estados Unidos tuvieron que esperar varios años antes de fabricar su primer auto. Se trató de su "modelo T". Transportes urbanos Ya a que en la actualidad hay demasiada población. fue el Mercedes. era organizador y perfeccionador. Èmile Loubat tuvo la idea de encastrar los rieles en la calzada.

El tren bala Podemos observar la evolución del ferrocarril que ha sido perfeccionado y que es más usual en Japón. entre Stratford y la ciudad de Londres el mismo año de su construcción y se lo bautizó Infant. incluido el cobrador. Fue puesto en servicio. en 1880. un antiguo coronel del ejército imperial francés. Este vehículo fue precedido por algunos prototipos de demostración: el de Siemens y Halske en Berlín en 1879. Stanislas Baudry. El metro Ha sido un medio de transporte efectivo en las grandes ciudades ya que consume energía eléctrica. Observó que más habitantes de las afueras que bañistas utilizaban el servicio y decidió ampliarlo. Orville y Wilbur Wright hicieron el primer vuelo en el aparato más pesado que el aire 354 . En la casa de Sauvage se exhibía una imagen de San Simón. de forma experimental.La primera línea de tranvía eléctrico operativo fue construida en 1888 por el norteamericano Frank Spague. en Menlo Park. al norte de Renania. A Baudry le pareció muy atractivo que omnibussignificara "para todo el mundo". construido por la firma alemana Benz y puesto en servicio el 18 de marzo de 1895 en una línea de 15 kilómetros. por lo cual en Francia fue común llamar simones a los primeros coches-taxis. Fue reemplazado por el autobús de motor de gasolina. en tanto que los dos conductores iban afuera. donde había un letrero en el que se leía: Omnes omnibus. podía transportar diez pasajeros. por lo que decidió darle ese nombre a su línea. Transporte Aéreo Historia El transporte aéreo es la forma de transporte moderno que más rápidamente se desarrolló. el inglés Walter Hancock proveyó a su país del primer autobús de motor. y el de Edison. Aunque los pioneros de la aviación en Estados Unidos. En 1703 la policía reglamentó su circulación y les atribuyó a cada uno su número. Podía transportar de seis a ocho pasajeros. Taxi En 1640. Provisto de un motor de vapor. se encuentra establecido bajo tierra y costo demantenimiento es bajo y no contamina. que podían transportar unos quince pasajeros. Debutó con veinte carrozas. Autobús En 1831. El coronel puso estos transportes colectivos a disposición de sus clientes entre el centro de Nantes y los baños que él poseía en los suburbios. La terminal del centro de la ciudad estaba situada delante del negocio de un tal Omnes. Ómnibus En 1825. tuvo la idea de poner en servicio unos vehículos derivados de las diligencias. el cochero francés Nicolás Sauvage abrió la primera empresa de taxis en la calle Saint-Martin en París.

México y Venezuela son los países con mayor número de kilómetros volados en líneas aéreas regulares. También Leonardo Da Vinci que fue precursor de la creación de aeronaves. El primero es básico para las relaciones entre los territorios insulares de Baleares y Canarias con la Península. Tras la II Guerra Mundial los transportistas aéreos comerciales recibieron incluso un mayor impulso cuando los propulsores de los aviones se hicieron más grandes y eficientes. además. Fue tanto el auge de los globos elevados 355 . São Paulo y Río de Janeiro) son el principal punto de origen y destino de la región. También el transporte aéreo ha tenido un gran crecimiento en los últimos 40 años en Latinoamérica. el llamado reactor Jumbo. Brasil. inspirándose en los pájaros. Estados Unidos y Canadá. tanto para vuelos nacionales como para los internacionales. fue el primer país que tuvo líneas aéreas comerciales. el año 1903. Carolina del Norte. del avión a reacción para el transporte comercial. creo un planeador con línea aerodinámica que se utilizan en la actualidad para los mismos aviones. que puede llevar desde 360 hasta más de 500 pasajeros en vuelos regulares. Europa. El primer vuelo con motor fue realizado por los hermanos Orville y Wilbur Wright. no fue hasta después de la I Guerra Mundial cuando el transporte aéreo alcanzó un lugar destacado en todos los países. el 17 de Diciembre de 1903 que duro solamente 12 segundos. sobre todo en las relaciones entre Latinoamérica y los países europeos. En España también tiene gran importancia el modo de transporte aéreo. Lilienthal. Las grandes ciudades latinoamericanas (Ciudad de México. Colombia. del Boeing 747. Colombia. Próximo Oriente. Aparte de los aviones supersónicos. Globos Aerostáticos En 1700 fue cuando se experimento utilizando globos más ligeros que el aire y así se invento el globo aerostático. en 1919. un gran avance en los viajes aéreos fue la introducción. aunque regularmente sus líneas aéreas realizan vuelos hacia Extremo Oriente. Los nudos internacionales han incrementado cada vez más su importancia debido a la situación estratégica de la Península en el mundo. al hecho de que sea un gran destino turístico mundial.en Kitty Hawk. Argentina. las distancias existentes en la Península entre la capital y las ciudades costeras han hecho rentables los desplazamientos por avión. en 1970. Un avance importante tuvo lugar en 1958 con la inauguración. Buenos Aires. por parte de las líneas aéreas británicas y estadounidenses. Primeros Aviones Uno de los sueños más viejos del hombre ha sido el de volar y es así como inicia una búsqueda constante para inventar aparatos que le permitan surcar los aires.

por Hidrogeno que se creó un globo de pasajeros. Rusia mando el primer satélite artificial de la tierra y desde entonces el hombre ha buscado la manera de viajar al espacio. 356 . cuando se elevo desde la plataforma de lanzamiento el Vostoki y tras una hora con 48 minutos regreso después de dar la vuelta al mundo. naves exploradoras del espacio. Así en la actualidad el hombre busca inventar naves que lo transporten más allá de nuestro planeta. Aeronaves modernas La Industria Aeronáutica. aun nos quedan muchos impedimentos por superar. facilitar nuestras vidas al llevarnos de un lugar a otro de manera que nosotros realicemos un trabajo mínimo en ese desplazamiento que realicemos. o para reducir costes. o siglos. alcanza su perfeccionamiento en la segunda guerra mundial. su objetivo esencial será el mismo. ha logrado alcanzar una relevancia importante debido a que se fabrican aviones más rápidos que la velocidad de la ludel sonido. Entre los aviones de pasajeros más importantes están: • Boein 747 o Jumbo Jet • El Concorde (Francés) • Tupolev TU-144 (Ruso) El 4 de Octubre de 1957. por lo que alguno sugieren la creación de colonias enteras. quieren ir más allá de la atmosfera para así gastar menos combustible. llevando a varias generaciones a lo largo de un viaje de décadas. A Futuro. Algunos de ellos (aéreos). grandes naves para pasajeros que dan vuelta al mundo. Hoy en día ha sido suplantado por el avión propulsado por el motor de propulsión a chorro. décadas. Avión de Hélice y Helicóptero Surgen en la primera guerra mundial. Otros piensan en el desarrollo de trenes intercontinentales subacuáticos. En la actualidad se siguen diseñando formas más eficaces de desplazamiento. Es el 12 de abril de 1961. más rápido. El Helicóptero. ya sea para llegar más lejos. ya sea por necesidad. pero en la segunda guerra mundial es cuando se lleva a su límite a los aviones propulsados por hélice. curiosidad o diversión. es importante ya que tenía un pasajero que era Yuri Gagarin. ahora sirve como eficaz medio de transporte y servicio en las grandes ciudades debido a que la mayoría de edificios y hoteles cuentan con ellos. pero debido a lo inseguro de este medio de transporte en la actualidad se utiliza como medio de diversión. En la cuestión espacial. Sean cuales sean los medios de transporte que se usen en los próximos años. o siglos. de duración.

fábricas. Electrificación en México La generación de energía eléctrica se inició en México a fines del siglo XIX. cien más en la Alameda Central y se comenzó la iluminación de la entonces calle de Reforma y de algunas otras vías capitalinas. y era utilizada por la fábrica textil “La Americana”. en el régimen de Porfirio Díaz se otorgó al sector eléctrico el carácter de servicio público. hospitales. para la iluminación residencial y pública. La primera planta generadora que se instaló (1879) en el país estuvo en León. Para 1889 operaba la primera planta hidroeléctrica en Batopilas. Al iniciarse el siglo XX. algunas compañías internacionales con gran capacidad vinieron a crear filiales: The Mexican Light and Power Company. la cual extendió sus redes de distribución hacia mercados urbanos y comerciales donde la población era de mayor capacidad económica. en Puebla. etc. de los cuales 80% lo generaba The Mexican Light and Power Company. Para 1910 eran 50. escuelas. 357 . La electrificación es un sistema de alimentación de tracción por el cual la energía eléctrica procedente de una línea exterior de alta tensión pasa por la subestación. Chihuahua. de origen canadiense (en el centro del país). No obstante. televisión e internet. Electrificación. colocándose las primeras 40 lámparas "de arco" en la Plaza de la Constitución. con el primer gran proyecto hidroeléctrico: la planta Necaxa. Casi inmediatamente se extendió esta forma de generar electricidad dentro de la producción minera y. A partir de entonces. marginalmente. el consorcio The American and Foreign Power Company (con tres sistemas interconectados en el norte de México) y la Compañía Eléctrica de Chapala (en el occidente). circula por el elemento conductor instalado a lo largo de la línea y llega a los puntos de distribución tales como casas.LOS VEINTE INVENTOS MÁS GRANDES DEL SIGLO XX El siglo XX está marcado por los grandes inventos y desarrollos de la tecnología. Guanajuato.0 MW. una revolución industrial mayor a las anteriores que transformó la vida de millones de personas ya que se desarrolló el campo de las comunicaciones. tales como radio. propiedad de empresas privadas.0 MW. México contaba con una capacidad de 31. A continuación haremos una reseña de los veinte inventos y descubrimientos que marcaron el siglo XX. Las tres compañías eléctricas tenían las concesiones e instalaciones de la mayor parte de las pequeñas plantas que sólo funcionaban en sus regiones.

Y fue hasta el 2 de diciembre de 1933. El automóvil.En ese período se comenzó el primer esfuerzo para ordenar la industria eléctrica con la creación de la Comisión Nacional para el Fomento y Control de la Industria de Generación y Fuerza. para el transporte de personas o cosas. o para la tracción de otros vehículos con aquel fin. como Gottlieb Daimler y Wilhelm Maybach presentaron a su vez sus modelos. conocida posteriormente como Comisión Nacional de Fuerza Motriz. Cabe destacar que fue un hito en la automovilística antigua. sistema totalmente innovador que le permitió alcanzar cifras de fabricación hasta entonces impensables. Esto encaminó al Presidente Porfirio Díaz.0 MW. el 14 de agosto de 1937. Henry Ford comenzó a producir automóviles en una cadena de montaje. Poco después otros pioneros. normalmente. En ese momento. Cuatro años después. los primeros automóviles llegaron a la Ciudad de México. al ir de Mannheim a Pforzheim. para crear el primer Reglamento de Tránsito en el país. Sin embargo. El primer viaje largo en un automóvil lo realizó Bertha Benz en 1888. ya que no se habrían desarrollado otros inventos que incluiremos más adelante. dado que un automóvil de esta época tenía como velocidad máxima unos 20 km/h. totalizando un parque vehicular de 136 en aquel año. él creó un impuesto para los propietarios de vehículos que fue abolido en 1911 con la victoria de Francisco I. creciendo hasta los 800 tres años después. cuando se decretó integrar la Comisión Federal de Electricidad. La electrificación nos ha servido mucho. gastaba muchísimo más combustible de lo que gasta ahora un vehículo a esa misma velocidad y la gasolina se compraba en farmacias. ciudades separadas entre sí por unos 105 km. El automóvil en México En 1903. o de ambas a la vez. regulando también el 358 . CFE entró en operación formal. Este permitía que los automovilistas alcanzaran una velocidad máxima de 10 km/h en calles estrechas o muy transitadas. considerándose por vez primera a la electricidad como una actividad nacional de utilidad pública. y hasta 40 km/h en las demás. Automóvil. la capacidad instalada en el país era de 629. Un automóvil se define como “vehículo de motor que sirve. A principios de la década de los 1960 apareció un Decreto Automotriz cuyas regulaciones dictaban que las empresas establecidas en México debían ensamblar todos los automóviles comercializados en el país. En 1910. Se excluyen de esta definición los vehículos especiales”. donde no estaba disponible en grandes cantidades. Madero sobre Díaz. fue inventado en Stuttgart (Alemania) en 1886 por Karl Benz.

Otra línea futura será la de los automóviles autónomos. Aeroplano Hace ya 500 años atrás. la propulsión y la dirección. Volkswagen y Datsun. 359 . impulsadas por los músculos y basadas en el movimiento del aleteo de las aves. Leonardo da Vinci se avocó a la tecnología del vuelo y diseñó varios dispositivos voladores. sin conductor. Durante esos intentos. Ya ha habido dos concursos. ya que con sus avances se van acortando cada vez más las distancias entre ciudades y se facilita más el transporte de carga que sólo era férreo. La idea era el desarrollar una industria automotriz nacional para promover la creación de empleos e impulsar el implemento de avances tecnológicos. del Departamento de Defensa de Estados Unidos. que estaba equipado con un motor a gasolina de 12 caballos de fuerza. Las empresas que no acataron este decreto tuvieron que abandonar el país. En 1904. Orville Wright se elevó en el aire con el biplano “Flyer I”. el cual había despegado del suelo utilizando la energía de un motor. Las tres grandes empresas americanas permanecieron en el país junto con American Motors (hoy Chrysler). La antigua visión futura del automóvil volador está desechada en la actualidad. así como con un elevador a diapasón y un timón. Orville y su hermano Wilbur realizaron un total de cuatro intentos de vuelo ese día -permaneciendo finalmente en el aire por un total de 59 segundos. los hermanos Wright fueron los primeros que tuvieron éxito en dirigir un avión y volarlo. Renault. Fiat y Volvo. y voló alrededor de 36 metros en 12 segundos. voló distancias de entre 36 y 265 metros. en los que varios coches autónomos han hecho un recorrido sin conductor. Un futuro posible del automóvil es su sustitución por medios de transporte público más eficientes energéticamente. entre éstas estaban Mercedes Benz. Estableció los principales factores del vuelo: el despegue. por lo que se dedicó a la construcción de planeadores. realizando un círculo completo. Actualmente se estudian nuevas formas para movilizarse de manera más rápida y eficiente lo que incluye mejores carreteras por las que moverse. su “Flyer”. El automóvil ha sido de gran utilidad. El 17 de diciembre de 1903. en el primer caso por el desierto de Mohave y en el segundo por una ciudad.porcentaje de integración nacional. El inglés Sir George Cayley comprendió que esas máquinas voladoras. Esto puede suceder a causa de la escasez de petróleo y su consecuente aumento de precio. los cuales tuvo en cuenta durante sus intentos de construir aparatos voladores. no conducían a ningún lado. ya que la energía necesaria para hacerlos sostenerse en el aire sería mucho mayor. Los primeros pasos hacia el vuelo propulsado y controlado habían sido dados. así como el porcentaje de las autopartes importadas.

Otro de los métodos más comunes era el filtrado del agua hervida a través de arena o grava para luego dejarla enfriar. Los egipcios fueron los primeros en utilizar métodos para el tratamiento del agua. De regreso en México. tenía unos llanos muy adecuados para la práctica del vuelo y se encontraba a unos 2 km de la estación de San Lázaro. Los mismos indican que las formas más comunes de purificación del agua eran hirviéndola sobre el fuego.C. Allí mandó construir un hangar donde se armaría el aeroplano. Agua potable en México 360 . El término se aplica al agua que cumple con las normas de calidad promulgadas por las autoridades locales e internacionales. el agua que puede ser consumida sin restricción. El hecho tuvo lugar en los llanos de Balbuena. Entre Braniff. Mientras tanto. tomó un curso de vuelo en la escuela que los propios fabricantes tenían en Yssy-Les-Moulineaux.La aviación en México El 8 de enero de 1910 el deportista mexicano Alberto Braniff efectuó en un aeroplano Voisin el primer vuelo de un aeroplano no sólo en México. sólo que no se tiene la misma accesibilidad para viajar en aeroplano que en automóvil. Braniff se fue a París y compró a los hermanos Voisin uno de sus aeroplanos con el encargo de que se lo enviaran a México. Estos registros datan de hace más de 1. el mecánico llegado de la fábrica apellidado Ploquin. en la linea de ferrocarril que unía la Ciudad de México con el puerto de Veracruz. propiedad de su familia. Potabilización del agua Se denomina agua potable o agua para consumo humano también responsable de toda la vida en el mundo sin ella no existiría nada. El aeroplano es un gran medio de transporte tanto de carga como de personas. armaron el avión. en el mes de septiembre. si no en toda Latinoamérica. autobús. próximos a la capital federal. una vez este llegó a Veracruz y fue trasladado en tren. un carpintero y el chofer de Braniff. Braniff buscó un lugar para sus prácticas de vuelo y encontró que la hacienda de Balbuena. tales como el ferrocarril o el barco. calentándola al sol o sumergiendo una pieza de hierro caliente dentro de la misma. El avión actual está diseñado para recorrer grandes distancias a muy corto tiempo comparado con transportes anteriores. o en su caso.500 años hasta el 400 A.

En 1970 se desarrolló el primer microprocesador. Electrónica La electrónica es la rama de la física y especialización de la ingeniería. Con el transistor se permitió aún una mayor miniaturización de aparatos tales como las radios. ya que con ella hacemos todo. Cuando los servicios eran una responsabilidad rentable. El transistor no funciona en vacío como las válvulas. el procesado. En 1958 se desarrolló el primer circuito integrado. la conversión y la distribución de la energía eléctrica. lavar. etc. en 1949. El transistor de unión apareció algo más tarde. la federación ansiaba esa recaudación. la distribución de información. que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente. El agua potable es un recurso indispensable para la vida. se cuenta con una cobertura razonable de los servicios de agua potable y saneamiento. los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias disciplinas especializadas. también por cuestiones presupuestarias.Las condiciones bajo las cuales se han provisto los servicios de agua potable y saneamiento en México han sido una mímica de las tensiones políticas entre las autoridades municipales y federales. etc. decidió regresarla a los municipios. una de las ramas de la ingeniería con mayor proyección en el futuro. En la actualidad. aunque la desigualdad social se observa incluso dentro de una misma localidad. La electrónica es. mayor rendimiento energético. La electrónica desarrolla en la actualidad una gran variedad de tareas. Intel 4004. Entonces se puede decir que la electrónica abarca en 361 . que alojaba seis transistores en un único chip. A pesar de esos vaivenes. menores tensiones de alimentación. una solución viable es la aplicación de subsidios cruzados en cada localidad: los fondos requeridos para que los ciudadanos de escasos recursos paguen las tarifas justas pueden provenir de los estratos pudientes de la sociedad. Estos dos usos implican la creación o la detección de campos electromagnéticos y corrientes eléctricas. En ese aspecto. La mayor división es la que distingue la electrónica analógica de la electrónica digital. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y fragilidad. una vez teniendo la responsabilidad. sino en un estado sólido semiconductor (silicio). Este es el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la electrónica. por lo tanto se debe crear conciencia para cuidarla y en un futuro no muy lejano no falte. razón por la que no necesita centenares de voltios de tensión para funcionar. Los principales usos de los circuitos electrónicos son el control. consumo humano. por tanto. limpiar.

La noche del 27 de Septiembre de 1921 fue una fecha significativa para los inicios de la radio en México. Pues fue cuando la cabina construida en la planta baja del 362 . El 17 de Septiembre de 1902. La radio es un medio de difusión masivo que llega al radio-escucha de forma personal.general las siguientes áreas de aplicación: telecomunicaciones y electrónica de potencia. Un receptor de radio consiste en un circuito eléctrico. Existen en el México más de 1332 emisoras de radio. es el medio de mayor alcance. los ingenieros han desarrollado tecnologías importantes que informan y entretienen a millones de personas. Del telégrafo inalámbrico a los sistemas de satélite. al igual que la electricidad. abriendo ventanas en áreas remotas del mundo. número que iba a seguir creciendo en los próximos años. la Red de Radio Nacional contaba con nueve estaciones que aseguraban la comunicación con otras naciones del Continente. diseñado de tal forma que permite filtrar o separar una corriente pequeñísima. ya que llega a todas las clases sociales por lo que establece un contacto más personal ya que ofrece al radio-escucha cierto grado de participación en el acontecimiento o noticia que se está transmitiendo. La electrónica. que es el altavoz (o parlante). inclusive el vacío) y luego amplificarla selectivamente. entonces presidente de México. 853 en Amplitud Modulada (AM) y 479 en Frecuencia Modulada (FM). Radio / TV El radio y la televisión fueron los mejores agentes sociales del siglo XX. para enviarla hacia un elemento con un electroimán. Porfirio Díaz. miles de veces. es por eso que no nos extendimos tanto en este tema debido a que tiene mucha relación con la mayoría de los inventos. electrónica de control. El receptor de radio es el dispositivo electrónico que permite la recuperación de las señales vocales o de cualquier otro tipo. que se genera en la antena. Durante los siguientes cuatro años la dirección General de Telégrafos Nacionales instalaría transmisores en diversas partes del país. ha contribuido para los grandes desarrollos de tecnologías. Para 1911. donde se transforma la información eléctrica en sonido. anunció en el Congreso las primeras pruebas de telegrafía sin hilos en Veracruz. transmitidas por un emisor de radio mediante ondas electromagnéticas. En México todas las estaciones comerciales de radio requieren una concesión por parte de la Secretaría de Comunicaciones y Transportes. por efecto de las ondas electromagnéticas que llegan por el aire normalmente (aunque viajan por cualquier medio.

La primera transmisión en blanco y negro en México. que estaban unidos al mismo eje para que su giro fuera síncrono y separados 2 m. 363 . Esta emisora transmitió los sábados. En 1910. dio origen al primer programa radiofónico. González Camarena impacta al mundo al inventar la televisión en color. Un joven de 17 años. se inaugura oficialmente la primera estación experimental de televisión en Latinoamérica. La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia. durante dos años. desde el cuarto de baño de la casa número 74 de las calles de Havre en la capital del país. gracias a su Sistema Tricromático Secuencial de Campos. hasta que. se lleva a cabo el 19 de agosto de 1946. en México y EE. se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo. Fue tal el éxito. en su etapa experimental. un programa artístico y de entrevistas. cuando la televisión en blanco y negro ya funciona en algunos países. Unos años más tarde. un Sistema Tricromático Secuencial de Campos. Los primeros pasos de la televisión en México. Esta transmisión puede ser efectuada mediante ondas de radio o por redes especializadas de televisión por cable. XE1GC. En 1940. realiza experimentos con un sistema de televisión de circuito cerrado. Durante varios años. Las primeras emisiones públicas de televisión las efectuó la BBC en Inglaterra en 1927 y la CBS y NBC en Estados Unidos en 1930. a las 20:30 h. se remontan al año 1934. El receptor de las señales es el televisor. en un pequeño laboratorio montado en las instalaciones de la estación de radio XEFO. uno en el emisor y otro en el receptor. La estación era propiedad de los hermanos Pedro y Adolfo Gómez. el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX y en 1925 el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos.UU. Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. en 1939.. En ambos casos se utilizaron sistemas mecánicos y los programas no se emitían con un horario regular. estudiante del Instituto Politécnico Nacional. lugar de residencia del ingeniero Guillermo González Camarena. que el 7 de septiembre de ese año. así como de Francisco Barra Villela. en 1960. el ingeniero Guillermo González Camarena trabaja con el equipo que él mismo ha construido.desaparecido Teatro ideal en la Ciudad de México. el mexicano Guillermo González Camarena patenta. En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas.

Como dato curioso agregamos que México es el tercer país en consumo televisivo. y separado del grano mientras se mueven continuamente a través del campo de cultivo. Estos motores también contribuyeron al desarrollo de la máquina segadora autopropulsada y de la trilladora. ya que en estos medios se transmiten noticias en tiempo real lo cual no era posible con los medios impresos como revistas o periódicos. se transmite el primer programa. con ruedas o cadenas diseñadas para moverse con facilidad en el terreno y potencia de tracción que permite realizar grandes tareas agrícolas. En vez de cortar las espigas del grano y transportarlas a una máquina trilladora inmóvil. y posteriormente la cosechadora combinada. Lic. Canal 5 transmitió el primer programa en color en la historia de la televisión de México: Paraíso infantil. trillado. el 1 de septiembre.El primer canal comercial de televisión en México y América Latina se inaugura el 31 de agosto de 1950. Miguel Alemán Valdés. las máquinas trilladoras separaban las semillas de las cabezas y de los tallos. Mecanización de la agricultura La agricultura es el conjunto de técnicas y conocimientos para cultivar la tierra. Comprende todo un conjunto de acciones humanas que transforma el medio ambiente natural. y los motores diesel posteriores se convirtieron en la principal fuente de energía para la siguiente generación de tractores. a través de la señal de XHTV-TV Canal 4 de la familia O'Farrill. está dotada de un motor de combustión y unos mecanismos de transmisión que la permiten desplazarse por el campo cuando desarrolla el trabajo. un día después. La televisión y la radio han sido fundamentales para la comunicación masiva y el entretenimiento de la humanidad. Una máquina agrícola es aquella que tiene autonomía de funcionamiento y. Las máquinas agrícolas más comunes son: Tractor: es una máquina agrícola muy útil. Tiene dos pedales de freno y está 364 . En ella se engloban los diferentes trabajos de tratamiento del suelo y cultivo de vegetales. los métodos de cultivo dieron un gran paso adelante. También en 1962. En vez de cosechar el grano a mano con una hoja afilada. con el fin de hacerlo más apto para el crecimiento de las siembras. las máquinas con ruedas hacían una siega continua. sólo detrás de potencias económicas como China y los Estados Unidos de Norteamérica. Se agrupa bajo el concepto general de maquinaria agrícola a toda la serie de máquinas y equipos que utilizan los agricultores en sus labores agrícolas. La gasolina. Con la llegada de la Revolución industrial y del desarrollo de máquinas más complejas. y en vez de trillar el grano batiéndolo con rastrillos. con la lectura del IVº Informe de Gobierno del Presidente de México. por tanto. estas cosechadoras combinan el corte. aun en terrenos encharcados.

y el de ruedas. En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Computadora Máquina capaz de efectuar una secuencia de operaciones mediante un programa. También en esta época se empezó a definir la forma de comunicarse con las computadoras. las computadoras seguían evolucionando. cuatro granjeros podían alimentar a diez personas. posee mayor velocidad que el de oruga. La maquinaria del campo incrementó dramáticamente la eficiencia del campo y su productividad en el siglo XX. se reducía su tamaño y crecía su capacidad de procesamiento. al comienzo del siglo XX. Al final del siglo. con las innovaciones de ingeniería en la maquinaria. La historia de la computadora se divide en seis generaciones que son: Primera Generación En esta generación había una gran desconocimiento de las capacidades de las computadoras. capaz de desplazarse hasta por carreteras. que recibía el nombre de programación de sistemas. Las características de la segunda generación son las siguientes: • Están construidas con circuitos de transistores. de gran estabilidad y fuerza. un solo granjero puede alimentar a más de cien personas. que se realice un procesamiento sobre un conjunto de datos de entrada. En EU. puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. obteniéndose otro conjunto de datos de salida. Hay dos tipos de tractores: el de oruga. de tal manera. Estas máquinas tenían las siguientes características: estas máquinas estaban construidas por medio de tubos de vacío y eran programadas en lenguaje de máquina aparte eran grandes y costosas. Segunda Generación Cerca de la década de 1960. • Se programan en nuevos lenguajes llamados lenguajes de alto nivel. Tercera generación 365 . peine cortador para segar las plantas maduras de cereales y un largo rastrillo que va delante de la máquina y gira sobre un eje horizontal. Cosechadora: o segadora es una máquina agrícola de motor potente. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación.acondicionando para halar rastras.

• Actualmente nos encontramos en la sexta generación. La computadora ha transformado los negocios alrededor del mundo incrementando la productividad y abriendo acceso a gran cantidad de conocimiento. Las características de esta generación fueron las siguientes: • Su fabricación electrónica esta basada en circuitos integrados. Quinta generación Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras". La ingeniería ha impulsado ésta revolución y continúa mejorando las computadoras haciéndolas más rápidas y capaces. son circuitos integrados de alta densidad y con una velocidad impresionante. Teléfono 366 . Las computadoras han liberado al ser humano de varias rutinas de trabajo diario y ha traído nuevas formas de manejar otras más complejas. • Su manejo es por medio de los lenguajes de control de los sistemas operativos. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes. con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". • Manejo de lenguaje natural y sistemas de inteligencia artificial. En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo. por lo que su uso se extiende al mercado industrial. Cuarta generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica.La tercera generación surge con la IBM 360 en abril de 1964. antecedida tan solo por IBM. que pueden resumirse de la siguiente manera: Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. y esta por su parte es aún de las cinco compañías más grandes del mundo.

Sin embargo Bell no fue el inventor de este aparato. El intento de mantener una empresa por mexicanos y para los mexicanos tuvo su inicio en el verano de 1958. y no Alexander Graham Bell. por la que se reconocía que el inventor del teléfono había sido Antonio Meucci. En 1871 Meucci sólo pudo. Las conexiones casi instantáneas permiten la comunicación auditiva que mejora nuestras vidas y los procesos industriales y comerciales. al establecerse oficialmente el servicio telefónico en México. Esto ocurrió en 1876. S. controlando. bajo ese marco. el 23 de diciembre de 1947 se constituyó Teléfonos de México. Durante mucho tiempo Alexander Graham Bell fue considerado el inventor del teléfono. pero no formalizar la patente ante la Oficina de Patentes de Estados Unidos. además. la ingeniería ha mejorado la comunicación telefónica cambiando de alambre de cobre a fibra óptica. y de tableros de switcheo a satélites Aire acondicionado El acondicionamiento del aire es el proceso que enfría. con lo cual Ericcson dejaba de operar en México después de 50 años. En condiciones ideales logra todo esto de manera simultánea. como es el caso de la Compañía Telefónica Mexicana (Mextelco) formada el 18 de julio de 1882. sino solamente el primero en patentarlo. Con innovaciones importantes. la inspección general. junto con Elisha Gray. Iniciando operaciones el 1 de enero de 1948. Muy parecido al teletrófono. y paso a dar concesiones para instalar cableado público. iniciando la carrera por instalar cableado a lo largo de la republica mexicana y por tal.El teléfono es un dispositivo de telecomunicación diseñado para transmitir señales acústicas por medio de señales eléctricas a distancia. (Telmex). que lo llamó teletrófono. A. 367 . La historia del teléfono en México se remonta a la fecha 15 de diciembre del año 1878. la compañía seleccionada para la construcción de una red telefónica que uniera a las comisarías de policía. así en agosto del mismo año. a través de una reunión para acordar el precio de intercambio de la compañía. la oficina del gobernador de la ciudad y el ministerio de gobernación fue Alfred Westrup & Co. presentar una breve descripción de su invento. limpia y circula el aire. El 11 de junio de 2002 el Congreso de Estados Unidos aprobó la resolución 269. El teléfono es la piedra angular de la vida moderna. Con las ventajas ofrecidas el teléfono dejo de ser uso exclusivo de la policía y el ejército. su contenido de humedad. en México se vivía un proceso de industrialización acelerado. A finales de la década de los cuarenta. por dificultades económicas. el nacimiento de compañías telefónicas.

a menudo amoníaco. el aire acondicionado. limpiaba y hacía circular el aire para casas y departamentos. el confort del aire acondicionado se extendió a todo el mundo. a través de accesos. y así regulando que tan frío y que tanto debe trabajar el compresor y el condensador. El aire acondicionado y la refrigeración cambiaron tremendamente la vida del siglo XX. En algunos países del sur de Sudamérica. A partir de entonces. fue el primer método para acondicionar el aire en grandes espacios. En 1921. Existen diversos tipos de carreteras.Como enfriar significa eliminar calor. Las ventas de aparatos para uso residencial no empezaron hasta después de la Segunda Guerra Mundial. calentaba. Carrier diseñó un compresor centrífugo similar a las paletas giratorias de una bomba de agua. En 1928. Willis Haviland Carrier patentó la Máquina de Refrigeración Centrífuga. el termómetro esta en el panel frontal para que cuando pase el aire calcule al temperatura a la que está el ambiente dentro de la recamara. Estas personas gozan de mejor vida al tener un clima más agradable que permite desarrollar las actividades de la vida cotidiana. Docenas de innovaciones de ingeniería hicieron posible el transporte y almacenamiento de comida fresca a personas que viven especialmente en lugares con climas calurosos. pero la Gran Depresión en los Estados Unidos puso punto final al aire acondicionado en los hogares. Las carreteras se distinguen de un simple camino porque están especialmente concebidas para la circulación de vehículos de transporte. otro término utilizado para decir refrigeración. aunque coloquialmente se usa el término carretera para definir a la carretera convencional que puede estar conectada. Las máquinas anteriores usaban compresores impulsados por pistones para bombear a través del sistema el refrigerante. Willis Haviland Carrier desarrolló el primer equipo que enfriaba. Carreteras Una carretera es una vía de dominio y uso público. El acondicionador de aire o clima toma aire del interior de una recamara pasando por tubos que están a baja temperatura estos están enfriados por medio de un liquido que a su vez se enfría por medio del condensador. que no pueden tener pasos y cruces al mismo nivel. a las propiedades colindantes. como Paraguay. También conocida como enfriadora centrífuga o refrigerante centrifugado. obviamente este tema incluye a la refrigeración. las autovías y autopistas. tóxico e inflamable. El resultado fue un enfriador más seguro y eficiente. proyectada y construida fundamentalmente para la circulación de vehículos automóviles. Argentina y Uruguay. parte del aire se devuelve a una temperatura menor y parte sale expulsada por el panel trasero del aparato. diferenciándolas de otro tipo de carreteras. se las conoce como rutas. 368 .

trayendo consigo la revolución de los viejos conceptos del transporte. Esto ocurrió porque. se transformaron en reglamentaciones para el tránsito de automóviles. la construcción de terraplenes. tenía que hacerse utilizando el ferrocarril. de casi 84 kg) y el primer hombre. en nuestro país no significó ninguna mejora para los caminos existentes. Las carreteras ayudan a disfrutar uno de los más preciados valores: la libertad de movilidad personal. que atraviese obstáculos geográficos y tome una pendiente suficiente para permitir a los vehículos o a los peatones circular y cuando la ley lo establezca deben cumplir una serie de normativas y leyes o guías oficiales que no son de obligado cumplimiento. a partir de entonces.La construcción de carreteras requiere la creación de una superficie continua. los automovilistas se limitaban a transitar por las calles y calzadas urbanas. En otros países los caminos se fueron modificando de manera gradual y las normatividades para la circulación de carruajes. puentes y túneles. Yuri Gagarin. como estaban continuaron prestando servicio a los vehículos de motor y a los de tracción animal. en Norteamérica y Europa la industria automotriz y las redes camineras crecían con rapidez. Como consecuencia. Miles de ingenieros construyen carreteras. los soviéticos fueron capaces de enviar el primer satélite artificial en órbita (el Sputnik. Estos esfuerzos pueden involucrar tanto seres humanos viajando en naves espaciales como satélites con recursos de telemetría o sondas teleguiadas enviadas a otros planetas (orbitando o aterrizando en la superficie de estos cuerpos celestes). El proceso comienza a veces con la retirada de vegetación (desbroce) y de tierra y roca por excavación o voladura. Al paso de unos cuantos años el automóvil empezó a evolucionar sobre todo en cuanto a velocidad. los cohetes para su programa espacial ya estaban listos como resultado del esfuerzo militar soviético resultante de la guerra fría. La URSS comenzó su programa espacial con una gran ventaja sobre los EE. muy deteriorado en aquellos días. Así. Mientras en nuestro país se desarrollaba la lucha revolucionaria. los misiles lanzadores intercontinentales de la URSS eran inmensos y potentes comparados con sus similares estadounidenses. Existe una variedad de equipo de movimiento de tierras que es específico de la construcción de vías. los caminos de México empezaron a volverse obsoletos. UU. debido a problemas técnicos para fabricar arcos nucleares más débiles. puentes y túneles que conectan a las poblaciones. sin embargo. seguido por el extendido del pavimento. Exploración espacial La exploración espacial designa los esfuerzos del hombre en estudiar el espacio y sus astros desde el punto de vista científico y de su explotación económica. El automóvil había hecho su aparición en México en 1906. En el México de 1925. permitiendo el abasto de enseres y servicios. El transporte de personas y mercancías de una ciudad a otra. 369 .

responsable de coordinar todo el esfuerzo estadounidense de exploración espacial y administrar el programa espacial de los EE. mediciones meteorológicas y comunicaciones vía satélite. Sputnik 4. conocida como ARPANET. lograron en su objetivo de alcanzar la Luna antes que la URSS. Korabl-Sputnik-4 y KorablSputnik-5. Miles de productos y servicios han sido resultado de los programas espaciales. con el Proyecto Apollo. pero cuya existencia era desconocida hasta hace poco en Occidente. UU. Desde la prueba de lanzamiento de cohetes hasta el lanzamiento de naves espaciales. incluyendo dispositivos médicos. más complejos y menos confiables que los lanzadores Redstone (basados en las antiguas V-2 alemanas). la exploración del espacio es quizás una de las más sorprendentes obras de ingeniería del siglo XX.El lanzamiento del Sputnik fue parte de un esfuerzo de preparación de la URSS para enviar misiones tripuladas al espacio. Internet Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP. Sputnik 5.. se puede atribuir a un error estratégico de invertir inicialmente en los lanzadores Vanguard. La primera red interconectada nace el 21 de noviembre de 1969. y 300 mil trabajadores.UU. de alcance mundial. se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. llamado LK lander.UU. La prueba de esto es la existencia de un módulo lunar soviético. garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única. entre tres universidades en California y una en Utah. Sputnik 2. y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver Arpanet). Consistió en ocho vuelos no tripulados: Sputnik 1. Sus orígenes se remontan a 1969. Sputnik 3. la NASA. Su programa espacial incluía planos para llevar hombres a Luna (este programa se llamaba Lunar L1). en 1969. Este proyecto envolvió un extraordinario esfuerzo económico de 20 billones de dólares. Esto acarreó que la capacidad de lanzamiento estadounidense era de 5 kg en el momento en que la Sputnik I. la primera red. cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada. de 84 kg pero con capacidad de 500 kg. Sin 370 . El mito de que ARPANET. fue recién lanzada por la URSS. Los dos últimos usando naves Vostok y ya con patrón compatible al envío de humanos al espacio. Estados Unidos. Los EE. Mucho del atraso inicial del programa espacial de los EE. En julio de 1958 se crea la agencia espacial de los EE. cuando se estableció la primera conexión de computadoras. 20 mil compañías que desarrollaron/fabricaron componentes y piezas. UU. Korabl-Sputnik-3.

generalmente. El primer ISP de marcaje telefónico. 371 . puede resultar excesivo.std. conveniencia y bajo costo. debido al inmenso abanico de posibilidades que brinda la red. world. se trataba de una línea digital. de pensamientos distintos de tantas y tantas posibilidades que. sino todo tipo de documentos digitales. la sensación que produce Internet es un ruido. y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red. la verdadera razón para ello era que los nodos de conmutación eran poco fiables. El segundo nodo Internet en México fue la Universidad Nacional Autónoma de México. no solamente texto. Por medio de mensajes de correo electrónico se puede enviar. pero sin duda alguna hoy es más probable perderse en la red. Hoy en día. con el Centro Nacional de Investigación Atmosférica de Boulder. en el Instituto de Astronomía en la Ciudad de México. Colorado. en ocasiones. una serie de interferencias. ITESM hacia la Universidad de Texas en San Antonio. Compañías como PSINet. específicamente a la escuela de Medicina. es un servicio de red que permite a los usuarios enviar y recibir mensajes rápidamente (también denominados mensajes electrónicos o cartas electrónicas) mediante sistemas de comunicación electrónicos. Ahora quizás también. El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros. Netcom.com. en los Estados Unidos de Norteamérica. Se navegaba en Internet para algo muy concreto: búsquedas de información. Su eficiencia. La historia del Internet en México empieza en el año de 1989 con la conexión del Instituto Tecnológico y de Estudios Superiores de Monterrey. tales como la administración y delegación de los nombres de dominio ubicados bajo . están logrando que el correo electrónico desplace al correo ordinario para muchos usos habituales.MX. se inauguró en 1989. En Diciembre de 1995 se hace el anuncio oficial del Centro de Información de Redes de México el cual se encarga de la coordinación y administración de los recursos de Internet asignados a México. Por lo tanto. una explosión o cúmulo de ideas distintas.embargo. Una Línea privada analógica de 4 hilos a 9600 bits por segundo fue el enlace. de personas diferentes. Inicialmente Internet tenía un objetivo claro. en el Campus Monterrey. e-mail basado en UUCP y Noticias Usenet al público. Esto mediante una conexión vía satélite de 56 Kbps. Durante los finales de los años ochenta se formaron las primeras compañías Internet Service Provider (ISP). Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red. este no fue el único motivo. o en inglés e-mail. Correo electrónico. UUNET.

El ultrasonido que sondea el cuerpo humano. hacían uso de transmisores direccionales para atraerlos a su espacio aéreo con la intención de derribarlos. Los primeros en usar de esta nueva tecnología serían de la inteligencia americana y los investigadores científicos quienes refinarían esta tecnología. electrocardiogramas. Otro adelanto seria la introducción de la resonancia magnética cuyas imágenes revelarían anomalías en tejidos humanos y flujo sanguíneos. la tecnología de imágenes se ha expandido para alcanzar nuestra visión.El internet está cambiando las prácticas del comercio. imágenes satelitales. resonancia magnética. el evitar la impericia médica exige un régimen costoso de parte del paciente y su seguro medico. Con el acceso global a las noticias. También se podría ver evidencia de daños en la espina dorsal y aun procesos neuroquímicos cerebrales. La aplicación más importante ha sido la de la investigación médica. al detectar aviones de vigilancia. sismogramas y otros. resultando en la tomografía computarizada. Abarca la fotografía en blanco y negro y color. ultrasonido. electroencefalogramas. Las pantallas circulares ya se usaban en los aviones de mayor tamaño. Haciendo uso de la pantalla. Se llama análisis de imágenes a la extracción de información derivada de sensores y representada gráficamente en formato de dos o tres dimensiones. El único problema es que al aumentar la capacidad diagnostica. y los pronósticos del tiempo son algunos ejemplos de los avances de la tecnología de imágenes. Esta tendencia no cambiara. El lado positivo de desarrollar nuevas tecnologías y imágenes es que resulta en nuevas observaciones que aumentan la eficacia del crecimiento en la investigación médica que a su vez produce mejores diagnósticos y tratamientos. el internet ha conectado más a las personas añadiendo convivencia y eficiencia en nuestras vidas. Las avances han fomentado una mejor comprensión del cuerpo humano. era posible navegar estas áreas peligrosas. En el presente los científicos están explorando el uso de nuevas tecnologías que hagan uso de más sectores del espectro electromagnético como las imágenes de rayos X. el mapeo del fondo de los océanos. para lo cual se puede utilizar tanto análisis visual como digital. En los primeros años de la guerra fría. De hecho. Tecnologías de imágenes. Otra tecnología seria la del ecocardiograma que haría posible el ver movimientos cardíacos y el flujo cardíaco. negocios y gran cantidad de información. 372 . radar de alta definición. hay fotos publicadas por la Fuerza Aérea de los Estados Unidos donde se muestra esta práctica. los soviéticos. infrarroja. Desde los pequeños átomos a las galaxias distantes. En la Segunda Guerra Mundial se introdujo el radar con su capacidad para detectar aviones enemigos. el diagnostico y el tratamiento. la educación y las comunicaciones. de radar.

Aparatos electrodomésticos. comercios o industria. Existen dos tipos de líneas de electrodomésticos: la línea blanca y la línea marrón. conservar los alimentos. Esta categoría incluye: • • • • • • Televisor / Televisión Reproductor de audio Reproductor de vídeo Cadena de música Reproductor de DVD Home cinema 373 . tanto para un hogar como para instituciones. Así. Este tipo de electrodoméstico se distribuye en un 44% del total del mercado en comercios afiliados. los mayores crecimientos en ventas de los últimos años se han producido en reproductores de DVD y 'Home cinema'. La línea marrón hace referencia al conjunto de electrodomésticos de vídeo y audio. Un electrodoméstico es una máquina que realiza algunas tareas domésticas rutinarias. La aparición de las pantallas de televisión de plasma promete una revolución similar en los próximos años. como pueden ser cocinar. o limpiar.

Principio de funcionamiento Los motores de corriente alterna y los de corriente continua se basan en el mismo principio de funcionamiento. 374 . éste tiende a desplazarse perpendicularmente a las líneas de acción del campo magnético. Se pueden construir de cualquier tamaño. comerciales y particulares. Partiendo del hecho de que cuando pasa corriente por un conductor produce un campo magnético. Tiene un par de giro elevado y. Los motores eléctricos de tracción usados en locomotoras realizan a menudo ambas tareas. su tamaño y peso son más reducidos. el movimiento circular que se observa en el rotor del motor. que provocan.MOTOR ELECTRICO Un motor eléctrico es una máquina eléctrica que transforma energía eléctrica en energía mecánica por medio de interacciones electromagnéticas. Así. si se los equipa con frenos regenerativos. Este tipo de motores no emite contaminantes. Son ampliamente utilizados en instalaciones industriales. según el tipo de motor. Ventajas En diversas circunstancias presenta muchas ventajas respecto a los motores de combustión: • • • • • A igual potencia. Dicha energía es comunicada al exterior mediante un dispositivo llamado flecha. El conductor tiende a funcionar como un electroimán debido a la corriente eléctrica que circula por el mismo adquiriendo de esta manera propiedades magnéticas. prácticamente constante. Pueden funcionar conectados a una red de suministro eléctrico o a baterías. el producto de la interacción de ambos campos magnéticos hace que el conductor tienda a desplazarse produciendo así la energía mecánica. debido a la interacción con los polos ubicados en el estator. además si lo ponemos dentro de la acción de un campo magnético potente. Algunos de los motores eléctricos son reversibles. Su rendimiento es muy elevado (típicamente en torno al 75%. pueden transformar energía mecánica en energía eléctrica funcionando como generadores. en automóviles se están empezando a utilizar en vehículos híbridos para aprovechar las ventajas de ambos. el cual establece que si un conductor por el que circula una corriente eléctrica se encuentra dentro de la acción de un campo magnético. aumentando el mismo a medida que se incrementa la potencia de la máquina). aunque en la generación de energía eléctrica de la mayoría de las redes de suministro se emiten contaminantes.

El flujo del campo serie varia directamente a medida que la corriente de armadura varía.La potencia es casi constante a cualquier velocidad. y es directamente proporcional a la carga. ya que un aumento de esta provoca un aumento de la intensidad y. . Motor compound Un motor compound (o motor de excitación compuesta) es un Motor . puesto que la intensidad en el inductor es la misma que en el inducido. ni tan “suave” como la de un motor serie.Se embala cuando funciona en vacío. este disminuye al aumentar la velocidad. Las principales este motor son: características de eléctrico de corriente continua cuya excitación es originada por dos bobinados inductores independientes. el cual consiste de pocas vueltas de un alambre grueso. estabilizandose la intensidad absorbida. por lo tanto. Un motor compound tiene un limitado rango de debilitamiento de campo. en: Motor seria El motor serie o motor de excitación en serie.Le afectan poco la variaciones bruscas de la tensión de alimentación. Este campo serie. Los motores de corriente continua compound son algunas veces utilizados donde se requiera una respuesta estable de par constante para un rango de velocidades amplio. . inductor serie e inductor auxiliar. El 375 . Los motores compound se conectan normalmente de esta manera y se denominan como compound acumulativo. debido a que la velocidad de un motor de corriente contínua aumenta al disminuir el flujo inductor y.Motores de corriente continua Los motores de corriente continua se clasifican según la forma como estén conectados. en el motor serie. Por lo tanto. El campo serie se conecta de manera tal que su flujo se añade al flujo del campo principal shunt. es un tipo de motor eléctrico de corriente continua en el cual el inducido y el devanado inductor o de excitación van conectados en serie. la debilitación del campo puede resultar en exceder la máxima velocidad segura del motor sin carga. la corriente de excitación o del inductor es también la corriente del inducido absorbida por el motor. Los motores compuestos tienen un campo serie sobre el tope del bobinado del campo shunt. Esto provee una característica de velocidad que no es tan “dura” o plana como la del motor shunt. uno dispuesto en serie con el bobinado inducido y otro conectado en derivación con el circuito formado por los bobinados: inducido. del flujo y de la fuerza contraelectromotriz. es conectado en serie con la armadura y lleva la corriente de armadura. El motor compound es un motor de excitación o campo independiente con propiedades de motor serie.

Motor shunt Es el tipo de motor de corriente continua cuya velocidad no disminuye mas que ligeramente cuando el par aumenta. El motor en derivación se utiliza en aplicaciones de velocidad constante. Los motores de corriente continua en derivación son adecuados para aplicaciones en donde se necesita velocidad constante a cualquier ajuste del control o en los casos en que es necesario un rango apreciable de velocidades (por medio del control del campo). que producen rozamiento. además. Los motores eléctricos solían tener un colector de delgas o un par de anillos rozantes. Los primeros motores sin escobillas fueron los motores de corriente alterna asíncronos. Cuantos más amperios pasan por el inducido mas campo serie se origina claro esta siempre sin pasar del consumo nominal. (también uno de los componentes del motor de corriente continua). gracias a la electrónica. el par motor que se desarrolla es menor que el motor serie. Al igual que en los dinamos shunt. se muestran muy ventajosos. como en los accionamientos para los generadores de corriente continua en los grupos motogeneradores de corriente continua Motor eléctrico sin escobillas Motor eléctrico paralelo. ya que son más baratos de fabricar. En el instante del arranque. Esta complejidad prácticamente se ha 376 . puede ser conductor. requieren mucho mantenimiento y pueden producir partículas de carbón que manchan el motor de un polvo que. El motor shunt o motor de excitación en paralelo es un motor eléctrico de corriente continua cuyo bobinado inductor principal está conectado en derivación o paralelo con el circuito formado por los bobinados inducido e inductor auxiliar. Al disminuir la intensidad absorbida. Estos sistemas. por lo que la resistencia del bobinado inductor principal es muy grande. pero su control era mucho más complejo.motor da un par constante por medio del campo independiente al que se suma el campo serie con un valor de carga igual que el del inducido. desprenden calor y ruido. pesan menos y requieren menos mantemiento. Hoy en día. Un motor eléctrico sin escobillas o motor brushless es un motor eléctrico que no emplea escobillas para realizar el cambio de polaridad en el rotor. el régimen de giro apenas sufre variación. disminuyen el rendimiento. las bobinas principales están constituidas por muchas espiras y con hilo de poca sección.

motor de corriente continua sin escobillas. Otros motores sin escobillas. que funcionan con pilas. puede informar de la velocidad de giro. la espira sólo es impulsada cuando el polo es el correcto. Actualmente. Además de los anteriores. En este caso.eliminado con electrónicos. que a la vez es inducido. y otra vez en alterna de otra frecuencia. Esta configuración la usan desde pequeños alternadores de coche hasta los generadores de centrales con potencias del orden del megavatio. los alternadores tienen el campo magnético inductor en el rotor. como lectores de CD-ROM. que sólo funcionan con corriente continua son los que se usan en pequeños aparatos eléctricos de baja potencia. lo que significa es que es capaz de avanzar una serie de grados (paso) dependiendo de sus entradas de control. 377 . Para detectar la posición de la espira del rotor se utiliza la detección de un campo magnético. o si está parado. e incluso cortar la corriente si se detiene para que no se queme. Tienen la desventaja de que no giran al revés al cambiarles la polaridad (+ y -). eliminado el primer paso. con un redimiento mucho mayor que un motor de corriente continua con escobillas. Para hacer el cambio se deberían cruzar dos conductores del sistema electrónico. que induce el campo magnético al estator. etc. El motor paso a paso se comporta de la misma manera que un convertidor digital-analógico y puede ser gobernado por impulsos procedentes de sistemas lógicos. se usa en los alternadores. los controles El inversor debe convertir la corriente alterna en corriente continua. servomotores y motores controlados digitalmente. estos motores de corriente alterna se pueden usar en aplicaciones de corriente continua. Este sistema electrónico. el sistema electrónico corta el suministro de corriente. para evitar este rozamiento en los anillos. además. Otras veces se puede alimentar directamente con corriente continua. Entre sus principales aplicaciones destacan como motor de frecuencia variable. y cuando no lo es. Por este motivo. Este motor presenta las ventajas de tener alta precisión y repetibilidad en cuanto al posicionamiento. En este caso no se evita el uso de anillos rozantes. Como el campo magnético del inductor necesita mucha menos corriente que la que se va generar en el inducido. Algunas aplicaciones serían los coches y aviones con radiocontrol. existe otro tipo que es utilizado en electrónica: Motor paso a paso El motor PaP es un dispositivo electromecánico que convierte una serie de impulsos eléctricos en desplazamientos angulares discretos. sino que se evita usar uno más robusto y que frenaría mucho el motor. Un sistema algo parecido. Su mecanismo se basa en sustituir la conmutación (cambio de polaridad) mecánica por otra electrónica sin contacto. cassetes. ventiladores de ordenador. se necesitan unos anillos con un rozamiento menor.

Existen 3 tipos fundamentales motores paso a paso: el motor reluctancia variable. • de de de el +Vcc -Vcc +Vcc -Vcc Observese como la variación de la dirección del campo magnético creado en el estator producirá movimiento de seguimiento por parte del rotor de imán permanente. y motor paso a paso híbrido.) chato Tabla de orden de fases. Vcc es la alimentación de corriente continua (por ejemplo 5V. el motor magnetización permanente. En este caso concreto -Vcc el motor +Vcc tendrá un paso angular de 90º y un semipaso de 45º (al excitarse más de una bobina) +Vcc -Vcc +Vcc -Vcc Paso Termin al 1 Bobina A Termin al 2 Bobina A Termin al 1 Bobina B Termin al 2 Imagen Bobina -Vcc B +Vcc Paso 1 +Vcc -Vcc -Vcc +Vcc -Vcc +Vcc 378 .. 24V.. el cual intentará alinearse con campo magnético inducido por las bobinas que excitan los electroimanes (en este caso A y B). 12V.

donde: • • f: frecuencia del tren de impulsos n: nº de polos que forman el motor Si bien hay que decir que para estos motores. si cambiamos el sentido de la alimentación activando T2 y T3. la máxima frecuencia admisible suele estar alrededor de los 625 Hz. Puede comenzar a vibrar pero sin llegar a girar. T2. Puede girar erráticamente. Si la frecuencia de pulsos es demasiado elevada. se establece el principio de "Puente H". O puede llegar a girar en sentido opuesto. T4 Velocidad de rotación La velocidad de rotación definida por la ecuación: viene Control de las bobinas Para el control del motor paso a paso de este tipo (bipolar). cambiaremos el sentido de alimentación y el sentido de la corriente. el motor puede reaccionar erróneamente en alguna de las siguientes maneras: • • Topología de "puente en H" para las bobinas A y B • • Puede que no realice ningún movimiento en absoluto. 379 .Paso 7 -Vcc +Vcc (Semi)Paso +Vcc 8 -Vcc -Vcc +Vcc variación de la alimentación de corriente de la bobina A según los transistores T1. si se activan T1 y T4. T3. permiten la alimentación en un sentido.

15.A. el rotor con un imán concéntrico magnetizado axialmente alrededor de su eje. Motores de corriente alterna Los motores de C. 18. Generalmente.25. Jaula de ardilla Un rotor de jaula de ardilla es la parte que rota usada comúnmente en un motor de inducción de corriente alterna. el par estático de este tipo de motor es cero. pero la inercia permitida de la carga es pequeña. es un cilindro 380 . Motores paso a paso unipolares: estos motores suelen tener 5 o 6 cables de salida dependiendo de su conexioado interno. Cuanto mayor es el par motor mayor es esta diferencia de frecuencias. Este tipo de motor tiene una alta precisión y alto par y se puede configurar para suministrar un paso angular tan pequeño como 1. 45 o 90°. En su forma instalada. Necesitan ciertos trucos para ser controlados debido a que requieren del cambio de dirección de flujo de corriente a través de las bobinas en la secuencia apropiada para realizar un movimiento. La inercia del rotor de un motor de paso de reluctancia variable es pequeña y la respuesta es muy rápida. es típicamente posible obtener pasos angulares de 7.8°.lo importante es que también coloquen a disposición un simulador o circuito para probar estos motores paso a paso para descartar fallas en ello. el paso angular de este motor de paso de reluctancia variable es de 15° El motor híbrido de paso: Se caracteriza por tener varios dientes en el estator y en el rotor. Este tipo se caracteriza por ser más simple de controlar. Se puede ver que esta configuración es una mezcla de los tipos de reluctancia variable e imán permanente. Dependiendo de la construcción del motor. Tipos de motores paso a paso [editar] El motor de paso de rotor de imán permanente: Permite mantener un par diferente de cero cuando el motor no está energizado.5. Cuando los devanados no están energizados. y rota cuando los dientes del rotor son atraídos a los dientes del estator electromagnéticamente energizados. El ángulo de rotación se determina por el número de polos en el estator El motor de paso de reluctancia variable (VR): Tiene un rotor multipolar de hierro y un estator devanado laminado. Un motor eléctrico con un rotor de jaula de ardilla también se llama "motor de jaula de ardilla". se clasifican de la siguiente manera: Asíncrono o de inducción Los motores asíncronos o de inducción son aquellos motores eléctricos en los que el rotor nunca llega a girar en la misma frecuencia con la que lo hace el campo magnético del estator. 11. Motores paso a paso Bipolares: Estos tienen generalmente 4 cables de salida.

El nombre se deriva de la semejanza entre esta jaula de anillos y barras y la rueda de un hámster (ruedas probablemente similares existen para las ardillas domésticas) Artículo principal: Jaula de ardilla estrella o en triángulo. Motor asíncrono Motor síncrono Síncrono En este tipo de motores y en condiciones normales. Posee dos bobinas una de arranque y una bobina de campo. Rotor Devanado El rotor devanado o bobinado. Monofásicos • • Monofásicos • • • • • Motor de arranque a resistencia. Motor de marcha. entonces la tensión de cada fase es 220 V. Las tensiones en cada fase en este caso son iguales al resultado de dividir la tensión de línea por raíz de tres. Motor de doble capacitor. A tres fases La mayoría de los motores trifásicos tienen una carga equilibrada. lleva unas bobinas que se conectan a unos anillos deslizantes colocados en el eje. Motor de arranque a condensador. el rotor gira a las mismas revoluciones que lo hace el campo magnético del estator. por medio de unas escobillas se conecta el rotor a unas resistencias que se pueden variar hasta poner el rotor en corto circuito al igual que el eje de jaula de ardilla. Trifásico • • • Motor de rotor devanado. consumen lo mismo en las tres fases. es decir. Cambio de sentido de giro Para efectuar el cambio de sentido de giro de los motores eléctricos de corriente alterna se siguen unos simples pasos tales como: Trifásicos • Motor de Inducción. Internamente contiene barras conductoras longitudinales de aluminio o de cobre con surcos y conectados juntos en ambos extremos poniendo en cortocircuito los anillos que forman la jaula. Por ejemplo. Motor universal Motor de Inducción-Repulsión. Motor de polos sombreados. ya estén conectados en 381 . como su nombre lo indica.montado en un eje. Posee un capacitador electrolítico en serie con la bobina de arranque la cual proporciona más fuerza al momento de la marcha y se puede colocar otra en paralelo la cual mejora la reactancia del motor permitiendo que entregue toda la potencia. si la tensión de línea es 380 V.

• • Para motores monofásicos únicamente es necesario invertir las terminales del devanado de arranque Para motores trifásicos únicamente es necesario invertir dos de las conexiones de alimentación correspondientes a dos fases de acuerdo a la secuencia de trifases. o los motores de conexión Dahlander. una es variando la frecuencia mediante un equipo electrónico especial y la otra es variando la polaridad gracias al diseño del motor. Regulación de velocidad En los motores asíncronos trifásicos existen dos formas de poder variar la velocidad. Esto último es posible en los motores de devanado separado. 382 .

mantenía una disciplina dura con ellos. Croacia. esto evidenciaba la fuente del carácter inventivo e ingenioso de Nikola Tesla. de nombre Milutin Tesla. durante el cual suspendió sus estudios. la universidad afirma que no recibió ningún grado y que no continuó más allá del segundo semestre del tercer año. Tesla se ocupaba leyendo muchas obras. Sin embargo. su madre era muy hábil en la construcción de "inventos" que ayudaran en el quehacer doméstico. el joven Nikola Tesla era susceptible a los problemas de salud. El sufrió una afección peculiar en la cual haces de luz cegadores. En diciembre de 1878 dejo Graz y rompió las relaciones con sus familiares. al ser conscientes de su precaria salud. También. (hoy Eslovenia). memorizando libros completos. Sus padres. el podía verlo involuntariamente en un detalle realista. la condición llamada sinestesia presenta síntomas similares. Con tal herencia y circunstancias. de nombre Djuka. querían que Nikola Tesla siguiera la carrera eclesiástica de su padre. Nikola Tesla hizo prometer a su padre que si sobrevivía a los males que lo aquejaban podría ingresar en ingeniería. 383 . Su padre. Sus amigos pensaban que se había ahogado en el río Mura. en un seminario ortodoxo donde su delicada salud sería atendida. los cuales desde muy corta edad le presentarían obstáculos para desarrollar su genialidad. tenía una memoria pródiga a pesar de su analfabetismo. supuestamente tenía una memoria fotográfica. Su madre. Sin embargo. La mayor parte del tiempo las visiones estaban asociadas a una palabra o idea que podía haber captado. como por ejemplo un batidor de huevos mecánico. donde obtuvo el primer empleo como asistente de un ingeniero por un año. Se dice que podía recitar largos poemas clásicos que su marido le había enseñado. era un clérigo ortodoxo que amaba profundamente a sus hijos y no obstante. Actualmente. Nikola Tesla sorprendió a sus maestros con su avanzada capacidad para las matemáticas. Por el solo hecho de escuchar el nombre de una cosa. Sin embargo.Nikola Tesla El comienzo Nikola Tesla nació el 9 de julio de 1856 en Smiljan. Algunas fuentes afirman que recibió la licenciatura de la Universidad de Graz. a menudo acompañados de alucinaciones. Estudios académicos Nikola Tesla estudió ingeniería eléctrica en la Universidad de Graz en la ciudad del mismo nombre en 1875. era más que de esperarse que el joven Tesla desarrollara un hambre de conocimiento que lo llevaría muy pronto a realizar pequeñas invenciones como un motor impulsado con insectos o un molino de viento de palas lisas. Desde los 12 años. Se dirigió a Maribor. podían aparecer ante sus ojos.

incluyendo todas las dimensiones. Sin embargo. Rechazó la idea de su profesor. Sin embargo después que su padre falleció. También desarrolló un dispositivo que. de acuerdo a algunos. pero según otros pudo haber sido el primer altavoz. Tesla concibió el motor de inducción e inició el desarrollo de varios dispositivos que usaban el campo magnético rotativo para el cual recibió la patente en 1888. En los años siguientes. También a menudo tenía reminiscencias de eventos que le habían sucedido previamente en su vida. trabajaron juntos en un proyecto usando gemelas para generar continua. sacando a flote las ideas de Edison. a la cual ingresó para el verano de 1880. Primeros estudios sobre la corriente alterna (AC) Mientras se encontraba en la Universidad de Gratz. Este descubrimiento convenció a Tesla de la necesidad de desarrollar motores y generadores de corriente alternante que no necesiten colectores. para trabajar como ingeniero en la Continental Edison Company (una de las compañías de Thomas Alva Edison). Tesla acostumbraba a no dibujar esquemas. completando solamente un periodo. se trasladó a Budapest para trabajar bajo las órdenes de Tivadar Puskás en una compañía de telégrafos. una técnica algunas veces conocida como pensamiento visual. Encuentro con Edison En junio de 1884. A pesar de que su encuentro fue breve. En el mismo año.Tesla fue posteriormente persuadido por su padre para asistir a la Universidad Carolina en Praga. en lugar de ello el concebía todas las ideas con la mente. Francia. Tesla podía visualizar una invención en su cerebro con precisión extrema. turbinas energía Durate la apertura de la central telefónica en 1881 en Budapest. Tesla llegó por primera vez a los Estados Unidos a la ciudad de Nueva York con pocos 384 . Primeros empleos En 1880. y fue más tarde ingeniero para el primer sistema telefónico del país. Tesla se había convertido en el eléctrico en jefe de la compañía. dejó la Universidad. quien enseñaba a sus alumnos que era imposible desarrollar motores y generadores AC. tardó bastante en desarrollar su teoría. Su "instinto" le indicaba que el profesor estaba equivocado. Tesla jamás fallaba cuando se trataba de resolver problemas científicos. un joven inventor serbio que vivía en Austria. Tesla se abocó a esta tarea. diseñando mejoras para el equipo eléctrico. En 1882 Tesla se trasladó a París. Aquí fue influenciado por Ernest Mach. Tesla descubrió las limitaciones inherentes de los motores y generadores DC debidas a la producción de chispas asociada con la acción colectora (la interrupción de polaridad de corriente en un motor para resguardar el movimiento del arrollamiento inducido). antes de iniciar la etapa de construcción. Allá conoció a Nebojša Petrović. era un repetidor telefónico o amplificador.

y pronto simpatizó con la situación de Tesla. resolviendo algunos de los problemas más difíciles de la compañía. Tesla dijo que trabajó día y noche en el proyecto y le dio a la compañía de Edison algunas Patentes nuevas y rentables durante el proceso. sino que también experimentó con dispositivos de 4 y hasta 6 fases. A principios de 1887. "Tesla. se vio abocado a cavar zanjas por un corto periodo de tiempo para la compañía de Edison. Ganando solo 18 dólares a la semana. el nuevo laboratorio de Tesla estaba ubicado dentro de un edificio que pertenecía a Edison.haberes aparte de una carta de recomendación de Charles Batchelor. En 1885 cuando Tesla preguntó acerca del pago por su trabajo. bi-fásicos y tri-fásicos. Se le ofreció entonces la tarea de rediseñar completamente los generadores de corriente directa de la compañía de Edison. K. el otro es este joven”. haciéndole mejoras tanto en servicio como en economía. Comprobada la eficiencia de sus sistemas AC. Al no encontrar un puesto como ingeniero. usted no entiende nuestro humor americano. Empezó a trabajar para Edison como un simple ingeniero eléctrico y progresó rápidamente. Edison replicó. Pronto Tesla construyó un generador AC de dos fases. Decidió recomendarlo a A. La compañía eléctrica Tesla Tesla. También desarrolló la teoría matemática necesaria para explicar la operación de sistemas AC. pero usó este tiempo para concentrarse en su sistema polifásico de CA. En abril. los comentarios sobre sus proyectos con AC atrajeron a su capataz. usted es unos de ellos. Tesla se dedicó a desarrollar una serie de inventos fundamentales. Casualmente. El capataz también estaba obligado a realizar un trabajo por debajo de sus capacidades. ajustado por inflación) si rediseñaba los motores y generadores ineficientes de su compañía." rompiendo así su palabra. necesitado de trabajo.000 dólares (1. No sólo se concentró en sistemas de fase simple. Tesla afirmaba que Edison le ofreció 50. Tesla se vio forzado a trabajar como obrero. un empleado antiguo. Batchelor escribió: “yo conozco a dos grandes hombres. En 1888 los patentó. En la carta de recomendación a Tomas Edison. La oferta era igual al capital inicial de la compañía. Edison contrató a Tesla para trabajar en su Edison Machine Works.1 millones de dólares en 2007. 385 . Tesla entonces renunció de inmediato cuando se rehusó a trabajar con un salario de 25 dólares a la semana. el motor de inducción que había construido en Europa y otras máquinas que tenía en mente diseñar desde su permanencia en Budapest. El veía el trabajo manual como una labor terrible. Brown de la Western Union Telegraph Company. Brown y un amigo aportaron el dinero para crear la "Tesla Electric Light & Manufacturing". a fin de mostrar y hacer entender sus trabajos a otros científicos. Tesla tendría que haber trabajado por 53 años para devengar el monto que le fue prometido.

También lo invitó a Pittsburgh por un año y le ofreció un alto salario como asesor técnico. Los sistemas DC de Edison no podían distribuir potencia más allá de media milla del generador debido a las excesivas caídas de voltaje producidas por la resistencia de las líneas de alto voltaje y la enorme corriente que fluía por las líneas. las prioridades y urgencias por fabricar sistemas de potencia AC de Westinghouse. Los transformadores convierten los voltajes AC a niveles seguros en el punto donde se utiliza la potencia. Tesla aceptó la oferta. Este dispositivo difería de otros tubos de 386 . Luego de su presentación en la AIEE. se le concedió la ciudadanía norteamericana. Los voltajes AC. Rayos x En abril de 1887. K. Alianza con Westinghouse Para aquella época. dependientes de su venta exclusiva. Brown y el socio que financiaron su trabajo. El 16 de mayo de este año fue invitado a ofrecer una ponencia sobre "Un nuevo sistema para motores y transformadores de Corriente Alternante" en la AIEE de Nueva York. en cambio. Tesla retornó a su laboratorio de Nueva York. eran diferentes de los objetivos que se proponía Tesla con sus investigaciones. se elevan en el generador usando transformadores. Le cedió medio millón a A. George Westinghouse era un afamado inventor que había hecho una fortuna en Pittsburgh fabricando frenos neumáticos para trenes y una variedad de dispositivos eléctricos. Rechazó una oferta muy lucrativa de Westinghouse para permanecer en Pittsburgh. Westinghouse le ofreció a Tesla un millón de dólares por sus patentes AC. Westinghouse se contactó con Tesla para ver en persona su equipamiento AC. Después de abandonar esta ciudad. Además. usando su propio tubo de vacío de una terminal (similar a su patente USPTO nº 514170). Ya era entonces reconocido y aceptado como miembro de la Asociación de Ingenieros Eléctricos. Reconoció las ventajas que ofrecían los sistemas de potencia AC respecto de los DC y divisó el gran potencial comercial de los trabajos realizados por Tesla.Sus geniales creaciones y logros se difundieron rápidamente. Había accedido a una riqueza jamás soñada. Ambos tenían intereses en común e inmediatamente entablaron una buena relación. El resultado es un aumento sustancial del rango de distribución. Tesla empezó a investigar lo que después se llamó rayos X. Insatisfecho con trabajar para terceros. reduciendo así la corriente y las pérdidas de la transmisión. Tesla estaba seguro de que sus máquinas AC operaban de manera más eficiente a una frecuencia de 60 Hz (entonces "ciclos por segundo") mientras que los ingenieros de Westinghouse usaban frecuencias de 133 Hz. Ya había logrado solventarse por sí mismo y deseaba retornar a sus proyectos. Surgieron problemas cuando los ingenieros de Westinghouse intentaron usar los diseños de Tesla para producir motores de fase-simple pequeños.

Propuso un sistema mundial para la trasmisión de energía eléctrica sin cables basado en la conductividad eléctrica de la tierra. De muchas de sus notas en las investigaciones preliminares de este fenómeno. Bobina de Tesla Tesla demostró la transmisión inalámbrica de energía" a principios de 1891. en electro-láser.S. El pensaba que éstas eran ondas longitudinales. Tesla realizó demostraciones con varias máquinas ante el Instituto Americano de Ingenieros Eléctricos en la Universidad de Columbia. El mismo principio es usado en pararrayos. A finales del siglo XIX.rayos X por el hecho de no tener electrodo receptor.138. Para 1892. como las producidas por las ondas en plasmas. el cual funcionaría mediante la trasmisión de energía por varios medios naturales y el uso subsiguiente de la corriente trasmitida entre los dos puntos para alimentar dispositivos eléctricos. Una vez liberados los electrones son fuertemente repelidos por campo eléctrico elevado cerca al electrodo durante los picos de voltaje negativo de la salida oscilante de alto voltaje de la bobina de Tesla.593. El creyó que inicialmente que el daño en la piel no podría ser causado por los rayos de Roentgen. entre las estaciones de emisión y recepción. Este sistema de transmisión unifilar fue protegido en 1897 por la patente U. «el instrumento podría generar rayos de Roentgen de mayor potencia que la obtenida con aparatos ordinarios». El término moderno para el fenómeno producido por este artefacto es Bremsstrahlung (o radiación de frenado). sino por el ozono generado al contacto con la piel y en parte también al ácido nitroso. Tesla demostró que usando una red eléctrica resonante y usando lo que en aquél tiempo se conocía como "corriente alterna de alta frecuencia" (hoy se considera de baja frecuencia) sólo se necesitaba un conductor para alimentar un sistema eléctrico. sin 387 . generando rayos X al chocar con la envoltura de vidrio. Ahora se sabe que este dispositivo operaba emitiendo electrones desde el único electrodo (carecía de electrodo receptor) mediante la combinación de emisión de electrones por efecto de campo y emisión termoiónica. El afirmó que con estos circuitos. Tesla también usó tubos de Geissler. En la práctica este principio de trasmisión de energía. arma de electrochoque. se percató del daño en la piel que Wilhelm Röntgen mas tarde identificó que era causada por los rayos X. En el mismo año. atribuyó el daño de la piel a varias causas. y también se ha propuesto para inhabilitar vehículos. En sus primeras investigaciones Tesla diseñó algunos experimentos para producir rayos X.0. es posible mediante el uso de un rayo ultravioleta de alto poder que produjera u canal ionizado en el aire. Demostró de esta forma que todo tipo de aparatos podían ser alimentados a través de un único cable sin un conductor de retorno. También mencionó los peligros de trabajar con sus circuitos y con los rayos X producidos por sus dispositivos de un solo nodo.

En las cataratas del Niágara se construyó la primera central hidroeléctrica gracias a los desarrollos de Tesla en 1893. Transmisión de energía sin hilos 388 . un empleado de Thomas Edison contratado para investigar la electrocución. Veremos a continuación cuáles son las aplicaciones de las invenciones y descubrimientos de Tesla. generaron una atención considerable entre los hombres de ciencia". en su momento. reconocí el hecho de que para transportar corrientes eléctricas a largas distancias no era en absoluto necesario emplear un cable de retorno. y descubre el fenómeno de las ondas estacionarias. sino que cualquier cantidad de energía podría ser transmitida usando un único cable. demostrando su superioridad sobre la corriente continua de Edison.necesidad de otro metal ni un conductor de tierra. Brown. Ilustré este principio mediante numerosos experimentos que. por lo que Harold P. En el transcurso de sus múltiples estancias en su laboratorio. sus experiencias presentan una sorprendente similitud con los trabajos más tardíos en materia de comunicaciones a muy bajas frecuencias. desarrolló la silla eléctrica. consiguiendo en 1896 transmitir electricidad a la ciudad de Búfalo (Nueva York). Tesla afirmó en 1901: "Hace unos diez años. Con el apoyo financiero de George Westinghouse. Construye un laboratorio de alta tensión. No obstante. En 1893 se hizo en Chicago una exhibición pública de la corriente alterna. Edison aún trataba de disuadir la teoría de Tesla mediante una campaña para fomentar ante el público el peligro que corrían al utilizar este tipo de corriente. La transmisión de energía y la utilización de las ondas de alta y baja frecuencia En 1899. de gran altura que rodea la más grande de las bobinas Tesla del mundo. consigue concebir un sistema de transmisión de energía sin hilos. Sus investigaciones sobrepasan a todas las realizadas sobre electromagnetismo. Guerra de corrientes Empeñado Tesla en mostrar la superioridad de la CA sobre la CC de Edison se desarrolló lo que se conoce como "guerra de las corrientes". Tesla llamó a este fenómeno la "transmisión de energía eléctrica a través de un único cable sin retorno". la corriente alterna sustituyó a la continua. Lo que de hecho creaba y transmitía eran ondas electromagnéticas a partir de alternadores de alta frecuencia sólo que no lo aplicó a la trasmisión de señales de radio como hizo Marconi sino a un intento de trasmitir energía eléctrica a distancia sin usar cables. Ideó y diseñó los circuitos eléctricos resonantes formados por una bobina y un condensador. Tesla fue considerado desde entonces el fundador de la industria eléctrica. Tesla se retira a las montañas de Colorado Springs para experimentar con las ondas electromagnéticas. claves de la emisión y recepción de ondas radioeléctricas con selectividad y potencia gracias al fenómeno de la resonancia.

Descubrimiento estacionaria de la onda El 3 de julio de 1899 es el día que Tesla descubre el fenómeno de las ondas estacionarias. " provocará una revolución industrial de una amplitud inigualada. El punto definido con anterioridad. Si a ello se añaden dos ondas hertzianas de igual frecuencia. Ese 3 de julio observó que a veces sus aparatos reaccionaban más fuerte a las descargas muy lejanas que a las más cercanas. Tesla ha observado este fenómeno a intervalos regulares.Durante una conferencia. También llamada "onda Tesla". quedará fijo en relación a la nueva onda así formada. a no importa qué distancia. piensa probar que se pueden transmitir grandes cantidades de energía eléctrica hacia las capas superiores de la atmósfera. El Proyecto Wardenclyffe Tesla necesitaba obtener dinero con urgencia para lo que sería su proyecto más ambicioso: una torre gigante y un laboratorio en el cual 389 . Tesla no sólo cree que el globo es un buen conductor. Además del proyecto de radiocomunicaciones. Estalla una violenta tormenta: las señales se intensificaron. En Colorado. de distancia. sino que las altas capas de la atmósfera son conductoras. Tesla consiguió encender 200 lámparas incandescentes de 50 vatios a 42 Km. el punto recorrerá toda la onda y por tanto. Es adicionando dos ondas hertzianas como se obtiene una onda estacionaria. que pensaba poner en marcha con la torre de Wardenclyffe. Con ello se dispondría de energía eléctrica en cualquier punto del planeta. se pueden observar regularmente numerosas descargas naturales de relámpagos. se obtiene una onda estacionaria. el punto y la onda tendrán un movimiento relativo. Si se define un punto del espacio. He aquí las observaciones que le permitieron deducir la existencia de este fenómeno. Según ellos. no estaba de acuerdo. Morgan decidió retirar su apoyo financiero. como su nombre indica. Es precisamente con este proyecto que Morgan. decrecen para acabar cesando. quiere establecer un sistema de transmisión de energía sin hilos. luego después de haber pasado por un máximo. constituyendo una vía conductora perfecta. la onda estacionaria. el acreedor de Tesla por aquel entonces. Tesla anuncia que puede ver realizado su sueño más querido: la transmisión de energía sin ningún cable de conexión. y este fenómeno continúa manifestándose con una fuerza constante. y una onda pasando por este punto. no se desplaza. al contrario de las ondas hertzianas. El se encuentra a 300 Km. Si este procedimiento llega a instalarse en el mundo un día. Así pues. Algunos de sus experimentos en Colorado Springs son explicados por periodistas. y que están situadas a altitudes muy moderadas fácilmente accesibles. Luego la tempestad se desplaza.

J. jamás realizó ninguna transmisión inalámbrica desde 390 . Para peor. no consiguió nuevos apoyos financieros. Una serie de accidentes le dio fama de mala suerte al nuevo laboratorio. le confesó que el plan de transmisión de comunicaciones era en realidad un proyecto para transmitir electricidad sin costo a los hogares norteamericanos. Plerpont Morgan le proveyó $150. las finanzas disponibles alcanzaban para construir una de 187 pies de altura. La gota que colmó el vaso fue la conversación que tuvo una noche Tesla con el millonario. a cambio de controlar las patentes que Tesla aún conservaba. Long Island. quizás con algunas copas de más. el plan de Tesla se tornaba cada vez más extravagante. El oscilador de alto voltaje ya se había completado pero la falta de fondos le impedía probarlo. y a pesar de sus esfuerzos. todos los habitantes del área que comprende de Long Island a Connecticut pudieron observar los rayos en el cielo nocturno. También pensaba refinar sus planes para construir un sistema de distribución de potencia eléctrica. Al día siguiente Morgan cortó todo apoyo a Tesla y éste se vio obligado a buscar nuevos inversores. Ésta fue la última oportunidad que tuvo para demostrar que era capaz de hacer realidad el proyecto de electricidad gratuita y sin límites. Si bien Tesla aspiraba a una torre más alta. los reporteros comenzaron a calificarlo como un científico excéntrico y loco demasiado predispuesto a la fantasía. En diciembre de 1901 el proyecto Wardenclyffe aún estaba en construcción cuando Marconi logró enviar señales telegráficas inalámbricas a través del océano Atlántico usando un equipamiento mucho más simple que el propuesto por Tesla. De todos modos. Rumores negativos sobre el estado de sus patentes y el escepticismo con que fueron tomadas sus fantásticas predicciones le retacearon ayuda. una escalada de precios y su diseño demasiado ambicioso hicieron que fuera imposible concretar el proyecto Wardenclyffe según lo planificado. Tesla se derrumbó moralmente. Los inversores se negaron a apoyar a Tesla debido a la mala prensa que venía teniendo desde hacía algunos años. con una cúpula hemisférica de 68 pies de diámetro. Los acreedores lo acosaban constantemente. Pronto.000 para construir la torre y los otros dispositivos necesarios en Wardenclyffe. En 1906 se detuvo por completo la construcción en Wardenclyffe por la insolvencia de Tesla. el entusiasmo de Morgan iba en disminución ante la falta de resultados concretos para exhibir.planeaba establecer una comunicación mundial inalámbrica. De cualquier modo. sin embargo. quien acusó a Marconi de violar varias de sus patentes. Cuando lo hizo. Desde que comentó a un grupo de periodistas que en su laboratorio de Colorado Springs había logrado captar señales de radio provenientes de un lugar en el espacio que probablemente fuera el planeta Marte. Ni Westinghouse ni Astor quisieron aportar el dinero necesario. el inventor.

en 1915 Tesla debió entregar Wardenclyffe a sus acreedores. Finalmente.Wardenclyffe. además. durante la guerra contra España. De acuerdo con su carta. que durante 1908. Denominó a su invento “el rayo de la muerte”. También presentó una serie de planos para construir lanchas torpederas a control remoto. A pesar de este traspié. Pero el ingreso de Estados Unidos en la guerra y le peligro de ser acusado de traición hizo que Tesla cortar su relación con los alemanes. El rayo de la muerte En otra oportunidad dijo poseer rayo capaz de crear ondas frecuencia capaces de “partir a tierra en dos como si se tratase una manzana” un de la de entonces los primeros años de la primera guerra mundial y Tesla vio entonces la oportunidad de sumarse al esfuerzo de rearme de los Estados Unidos. que se supone fue la base para el desarrollo de los motores que utilizaron luego los alemanes en sus submarinos durante la segunda guerra mundial. Aquel mismo año se dinamitó la torre por su valor en chatarra. y en 1917 ganó la medalla Edison. misma que rechazó. vieron en él un peligroso visionario capaz de entregar energía gratuita a todos los ciudadanos. Otros. poco a poco comenzaron a darle también la espalda. Las propuestas de Tesla fueron ignoradas y entonces el inventor recibió un pedido de la Armada Alemana para desarrollar un nuevo sistema de propulsión eléctrico. De 391 Los dueños de las empresas que siempre lo habían escuchado. Coincidentemente. Basándose en los experimentos de la “bobina de Tesla”. y tampoco pudo desarrollar su sistema de distribución de energía eléctrica. envió uno de sus rayos para que cayera al oeste de donde este se encontraba. Reveló. que tomaron partido a favor de Edison en su lucha contra el inventor serbio. Pasó el tiempo y Tesla debió recurrir al gobierno para tratar de financiar sus ideas. Tesla jamás abandonó sus ideas sobre la transmisión de potencia inalámbrica para comunicaciones globales. Estados Unidos hubiera ganado la guerra en solo una tarde sin perder un solo hombre en la contienda. mientras su amigo Robert Peary intentaba llegar al Polo Norte. en el año 1915 fue propuesto para el premio Nobel. presentó un proyecto para construir un artefacto capaz de lanzar un rayo electromagnético a miles de millas de distancia “capaz de derribar aviones a 400 kilómetros de distancia”. se dirigió al entonces presidente Wilson revelando poseer un rayo capaz de destruir grandes extensiones de tierra. se sumaron a la larga fila de personas dispuestas a opinar que se trataba de un personaje cercano a la locura y el desvarío. asegurando que de haber contado con ellas. Corrían . Por medio de una carta. ya había logrado resultados concretos que demostraban el enorme poder destructivo de su arma y ponía como condición para su entrega que fuera utilizado solamente con fines defensivos.

recomendó desechar la idea por inviable. el estallido se había producido en una zona alejada de sus planes. debido al estado desbocado de la guerra. Una turbina colocada en el centro de la nave tenía un propulsor montado encima. Más tarde Tesla hizo un nuevo intento y sobre el final de la guerra propuso un haz de ondas electromagnéticas para detectar aviones y submarinos a distancia. Pero el mismo día que Peary conquistaba el Polo. La carta fue recibida por un secretario de la presidencia y nunca llegó a su destino. como el de un helicóptero. fue adaptado para operar en las profundidades y sirvió para desarrollar los sonares modernos. La turbina de Tesla consistía en una serie de discos apilados horizontalmente y espaciados a una mínima distancia. luego. En el aire. el piloto operaba una palanca que movía el propulsor hacia el frente de la nave. en Siberia. debido a errores en sus cálculos. Durante 1907-1908 diseñó una aeronave VTOL (despegue y aterrizaje vertical). La explosión subsiguiente fue oída a 620 millas de distancia del lugar. pero su eterno competidor. envió un críptico telegrama a Peary en el que le anunciaba que recibiría una inequívoca señal de Tesla mientras se encontraba de camino al Polo. Tesla patentó en 1909 una poderosa y liviana "turbina sin hélices" que tenía el potencial para revolucionar el diseño de los primeros transportes en términos de caballos de fuerza producidos por libra de peso. Tesla no construyó un prototipo de este VTOL. el que. pero que. Un fluido (líquido o gas) ingresaba bajo presión a la cámara sellada en la periferia de los discos.acuerdo con los registros que obran en la Fundación Tesla. Tesla sugería que su rayo había sido el culpable de esa explosión y. decidió desarmar la maquina hasta que estuviesen dadas las condiciones para que sea debidamente comprendida. Nunca se dio una explicación convincente al suceso. La turbina sin hélices Si bien el fracaso de Wardenclyffe lo desalentó. 392 . conectados a un eje y cerrados en una cámara sellada. una devastadora y todavía inexplicada explosión sacudió a la zona de Tunguska. para despegues y aterrizajes. Años más tarde los británicos desarrollaron el sistema y lo denominaron radar. En su carta al presidente. Tesla continuó desarrollando ideas de largo alcance. como en un aeroplano convencional. pero patentó su diseño. En 1908 describió públicamente las limitaciones de los aeroplanos conducidos con propulsores y predijo el desarrollo de aeronaves con motores de reacción (jets). cráter u otro factor capaz de explicar semejante devastación. Escribió que el enterarse del peligro que encerraba su invento. Thomas Edison.000 kilómetros cuadrados de bosque fueron barridos por una explosión que se calcula tuvo el poder equivalente a una bomba atómica de 50 megatones. Rusia. ya que jamás se encontraron restos de algún meteorito. se ofrecía a rearmar para recuperar el equilibrio mundial. Peary volvió sin haber percibido nada anormal. Cerca de 3.

desarrollarlo y no descansar hasta terminarlo. Tesla sufría un desorden obsesivocompulsivo. Con este aparato pretendía visualizar la dinámica de su sistema de electricidad sin hilos. Tesla también sufría una repulsión física hacia las joyas. Tesla hablaba fluidamente varios lenguajes. y cuando se hospedaba en hoteles se quedaba en habitaciones con un número divisible por tres. Detestaba tocar 393 . En invierno se encerraba en su habitación a temperatura tropical sellando las rendijas con cinta. Sus nervios estaban alterados sobremanera y era hipersensible a los estímulos externos del mundo. siendo frecuente entre proyectos que durmiera tan poco como 3 horas diarias. Aún hoy sus patentes de turbinas de 1909 son estudiadas atentamente por ingenieros que intentan construir su diseño de largo alcance. Si esto fue así. Se construyeron modelos pequeños exitosos de la turbina. impidieron que se desarrollasen diseños más grandes. pero los materiales inadecuados de la época. y era miso-fóbico (temor irracional hacia los gérmenes). Excentricidades de Nikola Tesla Al igual que otras mentes brillantes que tienden a realizar grandes cálculos e invenciones en su cabeza. él hablaba otros siete lenguajes: checoslovaco. Oscilador Vibracional Mecánico Otro de sus inventos revolucionarios fue el llamado "Oscilador Vibracional Mecánico". pero sus esfuerzos fracasaron. italiano y latín. particularmente a los auditivos: cualquier sonido podía impredeciblemente perturbarlo. En uno de sus experimentos llegó a provocar un pequeño terremoto en su laboratorio de Manhattan. Varias compañías pagaron derechos por desarrollar el diseño de la turbina de Tesla. Hacía las cosas basándose el número tres. húngaro.La viscosidad causaba que los discos girasen mientras el fluido se deslizaba en vías circulares hacia el eje donde abandonaba la turbina. ya que era divisible por 3. no nos queda más remedio que pensar que a estas alturas deben existir sistemas tecnológicos ya perfeccionados capaces de provocar terremotos artificiales. y tenía varias manías y fobias inusuales. Nikola Tesla tenía el hábito de comenzar un proyecto. Nikola Tesla adoptó una dieta especial de vegetales y leche con el objetivo de alcanzar los 100 años de edad. francés. Se dice que pedía exactamente 18 toallas. en el restaurante Delmonico's pedía 18 servilletas y en el hotel Alta Vista escogió la habitación 207. Nikola Tesla se vio presa de un desorden obsesivo-compulsivo en la última parte de su vida. siempre buscaba cifras divisibles por 3. Era insistente con la limpieza y la higiene. particularmente aretes de perlas. entre otras cosas. inglés. Vivió en distintos hoteles durante la mayor parte de su vida y murió relativamente pobre. alemán. Junto con el serbio. lo cual eventualmente lo llevó al agotamiento y a desarrollar las enfermedades psicosomáticas y neurosis obsesivas. y los serios problemas financieros de Tesla.

Con la evolución del tiempo. Tesla estaba obsesionado con las palomas. expresando su disgusto por la gente con sobrepeso. A pesar de su tendencia a alejarse de la gente. Tesla comentó sobre la igualdad de género para las mujeres. y un conocedor de la comida y bebida. ordenando semillas especiales para las palomas que alimentaba en Central Park e incluso trayendo algunas con él a su habitación de hotel. el sonido y otras influencias. desarrolló una extrema sensibilidad a la luz. Tesla era conocido por sus presentaciones espectaculares. un apreciador de la buena música. una técnica para establecer comunicación con otros planetas y un arma de partículas de rayos para destruir una armada de 10. el escritor Hawthorne. escribió que era muy poco común "conocer a un científico o ingeniero que también era un poeta. Muchas de sus ideas eran más prácticas. muchos hablaban de él de manera positiva y admirativa. Esto parecía contradecir con su reclusión. Con estas ventas obtenía pequeñas cantidades de dinero. De todas maneras numerosas mujeres buscaron el afecto de Tesla. En 1926. pero dadas sus innumerables deudas. Se rehusaba a realizar convenciones sin su bobina Tesla disparando electricidad a través de la habitación. También criticaba la ropa de los demás. afirmando que la matanza de animales era cruel y barbárica. En sus últimos años se convirtió en vegetariano. Tesla nunca se casó. Sus últimos años Tesla aún tenía ideas a desarrollar en mente. Tesla ocasionalmente se mostraba cruel. indicando que en el futuro la humanidad sería dirigida por las "Abejas reinas". mostrando sus innovaciones al público de manera artística. cuando se encontraba en situaciones sociales. un filósofo.000 aeronaves a 250 millas de distancia. despidiendo empleados por su peso. y ocasionalmente vendía los derechos a terceros para que desarrollen sus conceptos." De todas maneras. exigiéndoles a sus subordinados que regresaran a casa a cambiarse en varias ocasiones. al cual llamaba "El Magnífico Macak". Particularmente innovadores son sus diseños para un velocímetro de automóvil y una luz delantera locomotiva. Al mismo tiempo. un lingüista. algunas incluso enamorándose locamente de él. algunas de ellas entraron en el reino de la ciencia ficción mientras otras parecen violar las leyes de la naturaleza. Entre sus ideas más fantásticas se incluyen una máquina para capturar y utilizar energía de rayos cósmicos. 394 . El creía que las mujeres se convertirían en el sexo dominante en el futuro. y muy a menudo reflexionaba sobre el gato de su infancia. a menudo aterrorizando a la audiencia. como si fuera un mago.cabello humano que no fuera el suyo tanto como objetos esféricos. El amigo de Tesla. Tesla amaba a los animales. Era célibe y afirmaba que su castidad era muy útil para sus habilidades científicas. Tesla era una figura complicada.

incluidos tres premios Nobel. En 1937 el gobierno de Yugoslavia recompensó a Tesla con una pensión mensual de $600. Inventos y importantes descubrimientos más Tesla. podemos destacar: La bobina de Tesla Es un transformador de aire con bobinas primarias y secundarias alineadas sobre la resonancia que convierte a las altas frecuencias de las corrientes elevadas de tensiones relativas débiles. Arribaron tributos de notables figuras políticas y científicos de todo el mundo. Tesla se tornó en un ser ermitaño y excéntrico. de los cuales la gran mayoría se desconocen. Hugo Gernsback. Tesla murió solo en una pequeña habitación de hotel el 7 de enero de 1943 a los 86 años. Hacia el final de sus días. Allí. Utilizada en la actualidad de una u otra forma en todo receptor de radio o de televisión. Muerte de Tesla Tesla vivió los últimos 10 años de su vida en una suite de dos habitaciones en el piso 33 del Hotel New Yorker. habitación 3327. fue uno de los primeros en ser notificados de su muerte. Mientras las frecuencias sean elevadas. sin causar daños. Gernsback mandó construir una máscara mortuoria de cobre con la imagen del sabio científico que aún se conserva en sus oficinas como un recuerdo personal. se comenta que llegó a inventar entre 700 y 1600 dispositivos. ¡Los miliamperios que penetran los tejidos nerviosos pueden matar mientras que muchos amperios en la superficie de la piel pueden ser tolerados durante breves instantes! La bobina de Tesla sirve como dispositivo de producción de altas tensiones. Tesla mostró signos de enfermedad mental. cerca del final de su vida. gran admirador del famoso científico e inventor.vivió en un estado rayano a la pobreza por el resto de sus días. afirmando ser visitado por una paloma blanca en específico diariamente. Tesla desechó su acusación de que Westinghouse había violado sus patentes sobre inalámbricos. en corriente débil de altas tensiones. las corrientes alternativas de las tensiones muy altas se deslizan ampliamente sobre la superficie de la piel. Entre los más destacables y que han llegado al conocimiento del público en general. A pesar de sus problemas financieros crónicos. Avidos acreedores aguardaban ansiosos el envío de estos fondos. podría ser considerado el mayor científico y el mejor inventor de la historia (al menos conocido). 395 . En la catedral de Nueva York donde se llevaron a cabo sus funerales se reunieron más de dos mil personas. Tesla siempre intentó brindar una imagen personal sofisticada y elegante. A cambio. Entre su amplia lista de creaciones. En 1934 la Westinghouse Corporation evitó que terminara en la calle al pagarle sus rentas y un estipendio mensual como consultor. se convertirá muy rápidamente en parte del equipo de todo laboratorio de investigación universitaria.

Este fenómeno será conocido con el término de diatermia Los médicos se interesan cada vez más en el oscilador terapéutico de Tesla. Afirma que un reducido número de estos ingenios basta para " atacar y derrotar a toda una armada en una hora. En 1934. en el radar. se obtiene una imagen del objetivo. Concibió que un día se pudieran dirigir vehículos a centenares de kilómetros sin que estuvieran tripulados. equipado con seis torpedos de 4. Creó naves-robot teledirigidas. y sin que el enemigo pueda nunca localizar ni identificar la potencia que le ha destruido ". utilizando aparatos concebidos precisamente según los principios enunciados por Tesla. equipos de investigadores americanos y franceses trabajan paralelamente sin descanso para poner a punto un sistema de funcionamiento según sus principios. para que rebote en el objetivo. y los responsables de la defensa americana consideran su proyecto como un sueño irrealizable. Tesla. tras analizarlo. una pequeña bobina de Tesla. Sus investigaciones le impulsan especialmente hacia algunas bases de la informática: los inventores que en la segunda mitad del siglo veinte querían registrar patentes en el terreno informático se dieron cuenta 396 . se publicó un artículo que otorga valores terapéuticos para el cuerpo humano al calentamiento interno por medio de corrientes de altas frecuencias. casi tres décadas después. Funciona como los ultrasonidos de los murciélagos: se envía un rayo concentrado de una corriente de minúsculas cargas eléctricas vibrando a una frecuencia muy grande. lo pone a punto y.30 metros. Venden bobinas médicas a hospitales y laboratorios. Sus patentes de 1895 contienen en realidad las especificaciones de un barco torpedero no tripulado. El radar fue de gran ayuda a los ingleses durante la segunda Guerra Mundial para prevenir los ataques aéreos de los alemanes. utilizando la telegrafía sin hilos. a pesar de sus problemas financieros. siente que está en un mundo que no está claramente preparado. Tesla descubre el principio del radar en 1900. El radar El radar es el instrumento base de defensa en todos los países modernos del mundo. Quince años después de la descripción del radar por Tesla. luego se recibe de nuevo el rayo y. que tanto trabajó para inaugurar la era de la automatización. una de las cuales era sumergible. que califican como experimento de laboratorio. un equipo francés pone a punto e instala el radar en barcos y en estaciones terrestres. En 1890. Los robots teledirigidos Tesla sentó las bases de los teleautomatismos. publica los principios de lo que se convertirá.Su bobina tiene varias aplicaciones médicas. lo que les proporciona mucho dinero. Pero las ideas de Tesla se hallan demasiado avanzadas para la época.

Tesla en la cultura popular En su novela El Prestigio.de que Tesla les había precedido. Fueron numerosos los que. Tesla en ese momento se hallaba (en la ficción) trabajando en un proyecto para teletrasportar electricidad de un punto a otro. La prensa mundial se hace eco de la noticia. Esta novela fue adaptada para el cine por Christopher Nolan. Radio y telecomunicaciones En 1893 Tesla dio un nuevo paso por el progreso de la ciencia describiendo con detalle los principios de la emisión de radio. En la novela Hyperion de Dan Simmons se mencionan en el primer capítulo los árboles Tesla. También ha utilizado 17 de sus otras patentes. Marconi llega a Londres con un receptor TSF. a continuación. autor inglés contemporáneo. " Me sorprende la repugnancia que manifiestan las personas que trabajan en el campo de los ordenadores en reconocer la prioridad de Tesla. En Saint-Louis. conocidas como ondas cósmicas. En realidad. iban a utilizar las patentes de Tesla para desarrollar la radio comercial. utilizó la patente básica de Tesla (n°645. solicitada en 1897 y homologada el 20 de marzo de 1900. Pero en 1943 se acabó la confusión: la corte suprema de Estados Unidos estableció que Tesla era el autor del descubrimiento inicial de la radio. De hecho parece ser que escuchó ondas de radio emitidas por las estrellas. Hoy en día la escucha de las estrellas es una práctica corriente. Esta información todavía no se ha incorporado a las enciclopedias pero los ingenieros de radio concuerdan en decir que es Tesla quien se halla en el origen de la radio. Bardeen y Schockley han sido cubiertos de honores por la invención del transistor. Su aparato es idéntico al que Tesla describió en 1893. realizó la primera demostración pública de comunicación por radio. En la adaptación (cuyo título original es The Prestige). Christopher Priest. Gracias a su potente receptor de radio escucha extraños sonidos rítmicos. mientras que la Sra. Brattain. pero el servicio encargado de examinar las solicitudes de patentes en Estados Unidos rechazará esta inverosímil negativa. Marconi transmitió el 12 de diciembre de 1901 la letra S a través del océano Atlántico. que ha hecho de las calculadoras electrónicas una realidad física ".576). injustamente atribuida a Marconi. a quien recurre Robert Angier pidiéndole que invente una máquina de teleportacion. Lo que siguió fue una encarnizada competición entre los dos hombres. Marconi niega haber tenido conocimiento del sistema de Tesla. que 397 . Será preciso esperar a 1920 para que los astrónomos aíslen de nuevo estas señales. utiliza el personaje de Tesla convirtiéndolo en inventor de un ingenioso aparato eléctrico utilizado por uno de los ilusionistas que protagonizan la historia. David Bowie interpreta al personaje de Tesla. hecho que generalmente se atribuye a Marconi en 1895.

Estados Unidos. Ratchet lo usa no sólo para abatir enemigos. un guante que acaba en unas tenazas. a distancia. Al final de esta etapa además aparece un arma Tesla capaz de lanzar rayos de corriente hacia el enemigo a grandes distancias. su relación con Edison y Westinghouse. la protagonista debe hacer funcionar el sistema de transmisión de electricidad inalámbrico ideado por Tesla. En la novela El palacio de la Luna de Paul Auster. En el videojuego Silent Hill: Origins un arma especial que se puede desbloquear se llama Tesla Rifle También en el videojuego Return to Castle Wolfenstein en los Laboratorios X se utiliza en gran cantidad tecnología Tesla. En el videojuego Command & Conquer: Red Alert aparece un sistema de defensa llamado "Tesla Coil". las cuales lanzan rayos eléctricos. el viejo Effing cuenta cómo le marcó el ingenio de Nikola Tesla y menciona la enemistad con Edison. un grupo musical llamado Tesla. Parecida a esta arma. El duo estadounidense The Handsome Family en su disco "The last days of wonder" tiene una canción sobre Tesla: "Tesla's Hotel Room". igual al invento que el científico usaba para investigar fenómenos electromagnéticos. En el videojuego Lara Croft Tomb Raider: Legend. que derivó su nombre. También aparecen servoarmaduras con el nombre de "Armadura Tesla" que potencian el uso de este tipo de armas. aplicándose desde la seguridad en las puertas hasta en la producción de energía local. pero en el juego consiste en una torre capaz de emitir un rayo eléctrico muy potente para destruir enemigos. es la "Garra Tesla" del videojuego Ratchet and Clank. 398 . California. así como también potenciar a los Tesla Troopers dotados con armas lanzarrayos. En el videojuego Blood 2 aparece un arma llamada Tesla Cannon que dispara rayos eléctricos. sino también para accionar diferentes dispositivos.almacenan electricidad y la liberan en forma de tormentas. un curioso experimento fílmico del director Jim Jarmusch. las circunstancias de su muerte y sus enormes contribuciones a la ciencia. En 1984 fue formado en Sacramento. algunos títulos de álbumes y canciones y algunos contenidos de canciones de eventos relacionados con el inventor. Meg y Jack White (del grupo White Stripes) comentan de modo icónico los logros de Tesla. También en la actualización "Broken Steel" aparece un arma llamada Tesla Cannon la cual es muy poderosa a pesar de que solo carga una bala por recarga. En el videojuego Fallout 3 aparece mencionado su nombre en los libros "Nikola Tesla y tu" los cuales sirven para obtener puntos extra en la habilidad de armas de energía como el rifle de plasma o la pistola laser. En la cinta Café y cigarrillos. que hace referencia justamente a su afición por los hoteles. como el de abrir una puerta. que también es incluido en otras escenas.

He aquí algunos de los fenómenos que pueden ser provocados con la utilización de ondas electromagnéticas de muy baja frecuencia: • Influencia sobre el clima. En el segundo capítulo de la cuarta temporada de la serie House. para electrocutar al equipo alien. El HAARP está basado en las investigaciones de 399 . si son utilizados con fines destructivos. como fuentes más baratas de energía o poderosa tecnología que puede ser usada con fines bélicos. provocando problemas. Los descubrimientos de Tesla a propósito de las ondas electromagnéticas pueden tener repercusiones importantes para la humanidad. En el cómic "Clockwork girl" (2007) la protagonista se llama Tesia al leer rápido la placa con la máquina con la que fue creada en la que pone "Tesla". Las siglas HAARP significan ” High-frequency Active Auroral Research ” (Investigación de la Aurora Activa de Alta Frecuencia). Veremos cómo estas ondas probablemente son utilizadas por las grandes instituciones gubernamentales para controlar el clima. Aparece mencionado en la novela "El mundo perdido". de Michael Crichton. sobre la ionosfera. zumbidos sonoros. aparece escrito "Tesla was robbed" (A Tesla le robaron) en la pizarra del aula que utiliza para la selección de los candidatos a formar parte de su nuevo equipo. entre los que estaba el que mencionaba que Nikola Tesla pudo haber descubierto una increíble fuente de energía. • Interferencias en las ondas emitidas por el cerebro. • Perturbación de las conexiones por radio.Orchestral Manoeuvres in the Dark sacó en 1984 una canción titulada Tesla Girls basada en el inventor. el FBI entró en su casa y confiscó la mayor parte de los documentos de sus investigaciones y hasta el día de hoy continúan clasificados como "secretos de estado" dando pie a que se produzcan especulaciones acerca de su contenido. hecho con el quake 3 engine). Dicha inscripción se puede ver varias veces a lo largo del episodio. Teorías y mitos en la actualidad Se dice que antes de su muerte agentes alemanes habían robado algunos documentos de sus investigaciones y el FBI vigilaba de cerca su paradero. En el videojuego Tremulous (un MMFPS multiplataforma. donde se enumeran algunos mitos tecnológicos. Inmediatamente de la noticia de la muerte de Nikola Tesla. La guerra meteorológica: el proyecto HAARP El HAARP es un centro de investigación americano instalado en Alaska. el equipo humano dispone de los "generadores Teslas" (similares a los árboles Tesla que almacenan energía y la liberan en forma de rayos). influir sobre la población y sobre ciertos comportamientos. libre. y destrucción de los aparatos electrónicos.

Oficiosamente. La guerra invisible de las ondas La investigación en este terreno es una preocupación importante. según un investigador del Ministerio de Defensa. Es un proyecto con un coste anual de 30 millones de dólares. en particular en laboratorios americanos y rusos. que podría modificar localmente la ionosfera a fin de neutralizar radares y radios. La frecuencia de resonancia de la ionosfera es casi idéntica a la del cerebro humano. Existe un tipo de arma muy interesante: las armas de baja y de muy baja frecuencia. Oficialmente. Pero. La ionosfera está constituida por partículas ionizadas altamente cargadas de energía. es difícil creer que no se trata de un proyecto con fines miliares cuando se sabe que los verdaderos socios capitalistas son la Marina. Es la tecnología ELF (Extremely Low Frequencies). sin cambiar la frecuencia de emisión. La ionosfera es pues una onda portadora perfecta a partir de la cual se puede alcanzar al cerebro. El proyecto estudia un potente dispositivo para emisiones de altas frecuencias. convertirse en un arma estratégica de capital importancia. Consideran que " el proyecto HAARP. es un problema de alcance mundial ". Es el inicio de la manipulación del clima. la Fuerza Aérea. el HAARP quiere sacar partido de la ionosfera para convertirla en un arma de energía. Raython (gigante americano de armamento) Ministerio de Defensa. En el transcurso del siglo XX. Las investigaciones realizadas durante un siglo por una serie de científicos han puesto en evidencia el hecho que esta "capa energética" que protege a la Tierra podría. Los promotores no escatiman dinero en campañas de relaciones públicas y publicidad para dar seguridad a la opinión pública americana. que el ejército americano presente como inocentes investigaciones sobre la ionosfera. se pueden distinguir algunas 400 .Bernard Eastlund. los científicos de este centro de investigación trabajan sobre un emisor de radio para estudiar la ionosfera. Es el lazo entre la esfera electromagnética de la Tierra y las frecuencias de resonancias del cerebro lo que forma la base de las armas estratégicas. Sin embargo. Las armas electromagnéticas son desarrolladas en el marco de inquietantes colaboraciones entre el Ministerio de Defensa. en razón de su impacto general sobre el medio ambiente. este tipo de emisiones permitiría actuar sobre la formación de fenómenos meteorológicos. quien a su vez se inspiró en los trabajos Nikola Tesla. y el de Justicia. Estas formidables armas llevan desarrollándose desde hace varios decenios. y el Algunas instituciones europeas están inquieras y piden " que se establezca un acuerdo internacional para prohibir a escala mundial cualquier desarrollo y despliegue de armas que podría abrir la puerta a toda forma de manipulación del hombre ". con la tecnología adecuada. antigua y permanente de los militares.

puso de relieve un cierto número de efectos de las frecuencias bajas y muy bajas. • 1989: Boris Yeltsin reconocía que en su tiempo la KGB había estudiado el recurso de las emisiones ELF para matar a distancia por paro de la función cardíaca. son utilizadas para enfríar los ardores de asociación o de órganos políticos y sindicales considerados demasiado militantes por ciertos dirigentes. el Profesor Herbert König. puesta en forma y dirigida. También se ha podido constatar la publicación de un memorando titulado « Adiestramiento biológico del cerebro por radiaciones de baja frecuencia ». interferir con la memoria a corto y largo plazo. • 1983-1984: los soviéticos querían utilizarlas contra las fuerzas rebeldes afganas. Confirmaron la realidad de los terribles efectos inducidos por estos campos. Se precisaron años para darse cuenta de que los soviéticos buscaban inducir efectos biológicos. • 1996: aparición de un artículo del Comité Científico Consejero de la Fuerza Aérea de EE. da algunas explicaciones: « el componente magnético de las radiaciones […] puede modificar el proceso físicoquímico que rige el metabolismo endocriniano. el ejército americano dirigió secretamente programas de investigación sobre estos efectos. las afecciones cutáneas. y quitarle toda agresividad. físico. redactado para la NASA. transmitir sugestiones. particularmente a nivel de la glándula tiroides ». adormecer. 401 . es decir. cuya señal puede ser pulsada. las hemorragias oculares e incluso los cánceres.UU.: « se puede contemplar el desarrollo de fuentes de energías electromagnéticas.utilizaciones de estas ondas. que podrían acoplarse con el cuerpo humano de manera que impidiera los movimientos musculares voluntarios y el control de las emociones (y las acciones). los problemas de memoria. es fácil privar de la conciencia de vigilia a todo soldado que ataca. psicológicos y fisiológicos. Daniel Depris . En los años 70. producir adquisiciones de experiencias o borrar las experiencias adquiridas » Efectos de estas ondas sobre el cuerpo humano A principio de los años 60. un estado de aturdimiento. Una irradiación crónica o continua puede hallarse en el origen de las tendencias depresivas. capaz de degradar los sistemas electrónicos o pudiendo ser utilizada en modo antipersonal (informe del Ministerio de Defensa americano). la alteración de reflejos. problemas cardíacos. He aquí un inventario: • 1962: la señal de Moscú: las autoridades americanas constataron que el personal de su embajada en Moscú estaba expuesto a niveles elevados de radiación electromagnética. De forma general. • 1987: un tipo de arma radicalmente nuevo. Ejemplo de utilización de estas armas psicotrónicas en tiempo de guerra El principio de utilización es sencillo: con estas armas.

y fueron la presa bienvenida de los cañones de la artillería americana. Cada vez más y más expertos militares se han convencido de que no fue el insuficiente reabastecimiento de las tropas de Saddam Hussein lo que provocó esta rendición repentina y masiva. 402 . a pesar de que habían enarbolado bandera blanca. Las armas de energía dirigida Tesla había escrito su teoría sobre las armas de energía dirigida antes del inicio del siglo veinte. Tesla anunció: « Mi dispositivo proyecta partículas de dimensión relativamente grande o. Con este tipo de arma.La revista 2000. por el contrario. de diciembre 93. sino que fueron las armas psicotrónicas de Estados Unidos ». pensaba. el primer objetivo es cortar los sistemas electrónicos enemigos. permitiéndonos transmitir sobre una pequeña superficie. y perturban completamente el sentido de la orientación de las personas alcanzadas. microscópica. Su famoso «rayo de la muerte». ondas de sonidos ELF. que provocan náuseas. instalaría la paz en la Tierra porque podría destruir ciudades enteras en todo el mundo. indicaba a propósito de las armas psicotrónicas: « ¿Se acuerdan ustedes de las imágenes de la Guerra del Golfo. vómitos. n°97. Se puede asistir a la puesta a punto de un arma capaz de paralizar al enemigo. Otros artilugios producen ultrasonidos. a los que tomaron por soldados. a gran distancia. una energía trillones de veces superior a la de cualquier otro rayo ». e instantáneamente. cuando millares de soldados iraquíes salieron de sus trincheras rindiéndose? Se rindieron incluso a los periodistas.

es el conjunto de operaciones necesarias para modificar las características de las materias primas.Proceso de producción de máquinas. para materiales o mezclas poco comunes y para controlar el grado de porosidad o permeabilidad. consistente en fundir un material e introducirlo en una cavidad. por ser ésta un material refractario muy abundante en la naturaleza y que. acero. mezclada con arcilla. manufactura o producción. Pulvimetalurgia La pulvimetalurgia o metalurgia de polvos es un proceso de fabricación que. la densidad. Para la obtención de un determinado producto serán necesarias multitud de operaciones individuales de modo que. en un molde de arena. adquiere cohesión y moldeabilidad sin perder la permeabilidad que posibilita evacuar los gases del molde al tiempo que se vierte el metal fundido. comúnmente metálicas pero también de plástico. La fundición en arena consiste en colar un metal fundido. FUNDICION Se denomina fundición al proceso de fabricación de piezas. Un proceso de fabricación. latón y otros. Proceso de fabricación Esquema de bloques general del proceso de producción de poliolefinas. el tamaño o la estética. bronce. puede denominarse proceso tanto al conjunto de operaciones desde la extracción de los recursos naturales necesarios hasta la venta del producto como a las realizadas en un puesto de trabajo 403 . también denominado proceso industrial. partiendo de polvos finos y tras su compactación para darles una forma determinada (compactado). donde se solidifica. dependiendo de la escala de observación. Dichas características pueden ser de naturaleza muy variada tales como la forma. dejarlo solidificar y posteriormente romper el molde para extraer la pieza fundida. la resistencia. llamada molde. El proceso tradicional es la fundición en arena. se calientan en atmósfera controlada (sinterizado) para la obtención de la pieza. Se realizan en el ámbito de la industria. típicamente aleaciones de hierro. Este proceso es adecuado para la fabricación de grandes series de piezas pequeñas de gran precisión.

fresas. La utilización de estas máquinas se extendió a todos los países industrializados. sierras. Por citar algunos ejemplos: en la lucha entre pueblos prehistóricos. partiendo desde definiciones. exigieron la utilización de herramientas. exigen para su racional utilización en la explotación un manejo seguro y profundos conocimientos técnicos. que todavía se usan fueron construidos con atención esmerada a las condiciones de subsuelo y con una base de grava y arcilla bien apisonada. los principales conceptos para poder comprender las maquinas básicas y las leyes físicas que las rigen. compuestas fundamentalmente por piedras y huesos. estudiando otros dispositivos. Durante el siglo XIX se alcanzó un grado de precisión relativamente alto en tornos. según afirman investigaciones recientes. ha debido aprender a construir y utilizar artefactos ajenos a él. Hasta que la construcción de caminos no llegó a ser un arte de gran desarrollo. Estas máquinas especializadas permitían fabricar productos estandarizados con un coste bajo. perfiladoras. El Hombre desde sus inicios (entendiendo como Hombre a un ser con capacidad racional). Los caminos de Roma. A partir de 1920 estas máquinas se especializaron y entre 1930 y 1950 se desarrollaron máquinas más potentes y rígidas que aprovechaban los nuevos materiales de corte desarrollados en aquel momento. utilizando mano de obra 404 . quien haya de trabajar diariamente con máquinas herramienta. máquina- 1. Luego los primeros esfuerzos de construcción de diques de tierra y zanjas de irrigación. tales como los arados. Durante los albores del siglo XX aparecieron máquinas herramientas más grandes y de mayor precisión. durante la era del imperio Romano no se reconoció verdaderamente el valor de la buena utilización de nuevas maquinas y técnicas. Las máquinas herramienta modernas. pulidoras.con una determinada herramienta. cepilladoras. ha tratado de dominar las fuerzas de la naturaleza. tipos y composiciones de ellas.. Así. taladradoras y perforadoras. habrá de plantearse cuestiones continuamente y de resolver problemas relativos a la herramienta. usados para la agricultura. pasando por subgéneros. Para ello. Una preparación por buena que sea no es suficiente. y revisando aplicaciones fundamentales del tema.Historia de las maquinas Reseña histórica de las maquinas. a la máquina o al trabajo. Expondremos en el siguiente informe. y azadones. ya las armas rústicas eran comunes.

Sin embargo. primer instrumento de accionamiento giratorio alternativo compuesto de un arco y una cuerda. el hombre viviría aún en estado primitivo y no habría podido alcanzar ninguna forma de progreso. la ventaja real de la máquina siempre es menor que la ventaja teórica. dirigir o regular una forma de energía para aumentar la velocidad de producción de trabajo o para transformarla en otra forma energética.sin cualificación especial. los ingenieros se han dedicado durante las últimas décadas a diseñar máquinas herramientas muy versátiles y precisas. y viceversa. Para solucionar este problema. Las máquinas también han posibilitado al hombre. carecían de flexibilidad y no podían utilizarse para varios productos ni para variaciones en los estándares de fabricación. Hay que tener en cuenta que una máquina nunca puede desarrollar más trabajo que la energía que recibe y que. Con estas máquinas complejas. el control de las fuerzas del viento. controladas por ordenadores o computadoras. El llamado “arco de violín”. de los combustibles y del agua. Máquinas: Definición y Referencias Una máquina es cualquier artefacto capaz de aprovechar. a velocidades mayores corresponden fuerzas menores. arquitectura y construcción. y todo ámbito de nuestras vidas. a su vez. Una máquina simple no tiene fuente productora de energía en si. que permiten fabricar de forma barata productos con formas complejas. La relación entre la fuerza aplicada y la resistencia ofrecida por la carga contra la que actúa la fuerza se denomina ventaja teórica de la máquina. plano inclinado. o aplicarla de forma más eficaz. cable. a igualdad de potencia. Combinando máquinas simples se construyen máquinas complejas. es utilizado todavía de forma residual en algunos países 405 . por lo tanto no puede trabajar a menos que se le provea de ella. Estas nuevas máquinas se aplican hoy en todos los campos. Debido a que todas las máquinas deben superar algún tipo de rozamiento cuando realizan su trabajo. Las máquinas son dispositivos usados para cambiar la magnitud y dirección de aplicación de una fuerza. Sin máquinas. La utilidad de una máquina simple (palanca. rueda) es que permite desplegar una fuerza mayor que la que una persona podría aplicar solamente con sus músculos. se construye todo tipo de máquinas utilizadas en la ingeniería.

fabricada en 1775 por encargo de James Watt. taladros de arco. Es la máquina más simple que se 406 . que trabajan con deficientes herramientas de acero al carbono Clases de maquinas Las máquinas se dividen en simples y compuestas. La simples tienen un solo punto de apoyo. Se consiguió una precisión “del espesor de una moneda de seis peniques en un diámetro de 72 pulgadas” (Science Museum. Boceto de un torno de pedal y doble pértiga de Leonardo da Vinci. accionada por rueda Wilkinson hidráulica. berbiquíes y tornos de giro continuo. Londres). que no llegó a construirse por falta de medios (siglo XV) A finales de la edad media se utilizan máquinas afiladoras que emplean la piedra giratoria abrasiva. La Palanca Mandrinadora de J. Las compuestas resultan de la combinación de varias simples.

Hay que emplear estas máquinas porque aunque se aumente la 407 Sea P la potencia. tiene además del movimiento de rotación otro de traslación. p = 2_radios P = 2_radios = R * 1_radio de donde P/R =1/2 El equilibrio en la polea móvil se cumple cuando la potencia es la mitad de la resistencia. Máquinas Compuestas Las máquinas compuestas son combinaciones de máquinas simples y están asociadas de manera que la resistencia de la primera es la potencia de la segunda. Polea Fija. oB al brazo de resistencia. la resistencia de ésta la potencia de la tercera y así sucesivamente. Una polea móvil . gira alrededor de su eje que es el lugar de apoyo. Poleas Una polea es una máquina simple.conoce y consiste en una barra o cuerpo ríquido que gira sobre un punto de apoyo o fulcro. según la distribución de sus elementos. La polea fija tiene un solo movimiento de rotación. el arco BB´ el que describe la resistencia. Condición de equilibrio Condiciones palanca de equilibrio de la Se aplican las mismas fórmulas de la palanca: F*p = R*r Si llamamos P a potencia. Tendremos: P/R = oB / oA Potencia es a resistencia como brazo de resistencia es a brazo de potencia. Las Palancas pueden ser de tres géneros (ver ilustración). por donde pasa una cuerda. oA el brazo de potencia y R la resistencia. Consta de una rueda que lleva en su borde una canal o hendidura llamada garganta o cajera. p a brazo de potencia.. Hay dos clases de poleas: fijas y móviles. R a resistencia y r a brazo de resistencia. El arco AA´ el que describe la potencia. O la potencia multiplicada por su brazo es igual a la resistencia multiplicada por el suyo.

Al igual que la perfiladora. Siendo n el número de máquinas compuestas Entre las máquinas compuestasde ruedas dentadas. Hay además máquinas taladradoras y perforadoras. palancas y poleas están: grúas. MAQUINAS Y HERRAMIENTAS CONVENCIONALES Entre las máquinas herramientas básicas se encuentran el torno. las perfiladoras. Además se perdería una gran cantidad de trabajo. la cepilladora mueve la pieza sobre un útil fijo. donde el útil se mueve sobre una pieza fija.potencia en máquinas simples. porque depende de los recorridos que se efectúen hacia adelante y hacia atrás. éstas perderían su eficacia al ser grandes y pesadas. polipastos y todas las maquinarias mecánicas actuales que conocemos: relojes. horizontales o diagonales. pulidoras. Al contrario que en las perfiladoras. También puede utilizar varios útiles a la vez para hacer 408 Torno El famoso torno. la cepilladora permite hacer cortes verticales. Esta máquina utiliza un útil de una sola punta y es lenta. las cepilladoras y las fresadoras. o para cortar acanaladuras. CEPILLADORA Esta es la mayor de las máquinas herramientas de vaivén. para obtener piezas con partes cilíndricas o cónicas. la condición de equilibrio en una máquina compuesta resultará de multiplicar la conidición general de equilibrio de una máquina simple o el número de ellas que forman la compuesta: paralela o perpendicularmente a la dirección de giro. como las producidas por una fresadora. pero sí en fábricas de herramientas y troqueles o en talleres que fabrican series pequeñas y que requieren mayor flexibilidad. El útil se desliza sobre una pieza fija y efectúa un primer recorrido para cortar salientes. la pieza se mueve lateralmente para utilizar otra parte de la herramienta. la máquina giratoria más común y más antigua. PERFILADORA La perfiladora se utiliza para obtener superficies lisas. sierras y diferentes tipos de máquinas para la deformación del metal. Después de cada vaivén. etc. Empleando útiles especiales un torno puede utilizarse también para obtener superficies lisas. Por esta razón no se suele utilizar en las líneas de producción. o para taladrar orificios en la pieza. Al estar compuestas de varias máquinas simples. engranajes. El útil puede moverse . sujeta una pieza de metal o de madera y la hace girar mientras un útil de corte da forma al objeto. volviendo a la posición original para realizar el mismo recorrido tras un breve desplazamiento lateral.

máquinas automáticas o máquinas de perforación de gran longitud. Las piezas rectificadas entre los puntos van desde minúsculos manguitos de válvula hasta laminadoras siderúrgicas con diámetros superiores a 1. En estas máquinas la pieza se sujeta sobre una cuchilla de apoyo y una rueda reguladora. Se utilizan para afinar objetos como bolas de bolos. colocado en una barra y dirigido contra una pieza fija. Las rectificadoras suelen clasificarse según la forma de la pieza a afinar. FRESADORA En las fresadoras. máquinas perforadoras se encuentran las perforadoras de calibre y las fresas de perforación horizontal y vertical. Las rectificadoras de puntos o exteriores se usan con piezas cilíndricas taladradas por su centro en cada extremo. La perforación implica el aumento de la anchura de un orificio ya taladrado. Permiten obtener superficies curvadas con un alto grado de precisión y un acabado excelente. Hay taladradoras de distintos tamaños y funciones. Esto se hace con un útil de corte giratorio con una sola punta.varios cortes simultáneos. las interiores y las de superficie. suturas quirúrgicas o rodamientos de rodillos 409 TALADRADORAS PERFORADORAS Y Las máquinas taladradoras y perforadoras se utilizan para abrir orificios. que también controla la rotación de la pieza. forma y acabado deseados. Las rectificadoras sin puntos eliminan la necesidad de taladrar los extremos de la pieza. Los cuatro tipos de rectificadoras de precisión son las rectificadoras de puntos. RECTIFICADORAS Las rectificadoras son máquinas herramientas equipadas con muelas abrasivas de precisión y sistemas adecuados para sujetar. Los distintos tipos de útiles de corte permiten obtener ángulos. Las fresadoras son las máquinas herramientas más versátiles. la pieza entra en contacto con un dispositivo circular que cuenta con varios puntos de corte. para modificarlos o para adaptarlos a una medida o para rectificar o esmerilar un orificio a fin de conseguir una medida precisa o una superficie lisa. La muela va montada en un eje movido por un motor. Entre las . La pieza se sujeta a un soporte que controla el avance de la pieza contra el útil de corte. engranajes o muescas. ranuras. colocar.5 m y pesos de casi 100 toneladas. girar o desplazar la pieza para poder afinarla hasta lograr el tamaño. que la hace girar a unos 30 metros/segundo. horizontal y vertical. lo que permite sujetar la pieza entre dos puntos y hacerla girar. El soporte puede avanzar en tres direcciones: longitudinal. pasando por taladradoras de varios cabezales. las rectificadoras sin puntos. el modo de sujeción y la estructura de la máquina. En algunos casos también puede girar. desde taladradoras portátiles a radiales.

tenaces y resistentes al desgaste a altas temperaturas. entre 15. aceites químicamente inactivos y fluidos sintéticos. en que cada grano actúa como un útil de corte minúsculo. Los fluidos para corte son de tres tipos: soluciones acuosas. según el tipo de movimiento que se utiliza para realizar el corte: de vaivén.000 revoluciones por minuto. Las rectificadoras interiores se emplean para el acabado de los diámetros interiores de engranajes. En muchas operaciones de corte se utilizan fluidos para refrigerar y lubricar. Útiles y fluidos para el corte Dado que los procesos de corte implican tensiones y fricciones locales y un considerable desprendimiento de calor.2% de carbono). La presión del disco sobre la pieza se selecciona con mucha exactitud. un mecanismo de avance y una hoja de corte. por lo que pueden tratarse de esta forma materiales frágiles que no pueden procesarse con otros dispositivos convencionales. También tienen estas propiedades los materiales cerámicos y el óxido de aluminio. los aceros de corte rápido (aleaciones de hierro con volframio. La pieza se coloca en un banco plano y se mantiene en su sitio mediante electroimanes o dispositivos de fijación. un tornillo para sujetar la pieza. La pieza va rotando despacio mientras la muela permanece fija. como los aceros al carbono (que contienen un 1 o 1. Hay materiales que cumplen estos requisitos en mayor o menor grado. SIERRAS Las sierras mecánicas más utilizadas pueden clasificarse en tres categorías. 410 . el carburo de tungsteno y los diamantes. Dado que sólo se elimina una parte pequeña del material con cada pasada del disco. circulares o de banda. PULIDORA El pulido es la eliminación de metal con un disco abrasivo giratorio que trabaja como una fresadora de corte. Con este proceso se consiguen superficies muy suaves y precisas. Las sierras suelen tener un banco o marco. las pulidoras requieren una regulación muy precisa. limitando el calor generado y la energía necesaria para realizar el corte. cromo.000 y 200. La muela se hace descender sobre la pieza mientras el banco se desplaza con un movimiento alternativo o gira lentamente. Las muelas abrasivas son pequeñas y giran a velocidades muy elevadas. los materiales empleados en los útiles de corte deben ser duros. La lubricación reduce la fricción.cónicos. guías de rodamientos y piezas similares. El disco está compuesto por un gran número de granos de material abrasivo conglomerado. vanadio o carbono). Las rectificadoras de superficie se emplean para superficies planas. La refrigeración alarga la vida de los útiles y ayuda a fijar el tamaño de la pieza terminada.

utiliza la energía eléctrica para eliminar material de la pieza sin necesidad de tocarla. También puede perforar metales refractarios y cerámicos y piezas muy finas sin abarquillarlas. Estas máquinas fueron desarrolladas para dar forma a aleaciones de gran dureza utilizadas en la industria pesada y en aplicaciones aerospaciales. otros métodos. para vaporizar el material que se desea eliminar. Este método produce formas que no pueden conseguirse con procesos de mecanizado convencionales. Como no hay ninguna acción mecánica. Este método es muy adecuado para hacer orificios con gran exactitud. las de descarga eléctrica y las electroquímicas. perforar y cizallar las piezas. MÁQUINAS HERRAMIENTAS CONVENCIONALES NO Descarga eléctrica La mecanización por descarga eléctrica. Entre las máquinas herramientas no convencionales se encuentran las máquinas de arco de plasma. Estas máquinas pueden producir piezas a gran velocidad porque el tiempo que requiere cada proceso es sólo el tiempo de desplazamiento del pistón. o sea. Arco de plasma La mecanización con arco de plasma utiliza un chorro de gas a alta temperatura y gran velocidad para fundir y eliminar el material. Una prensa consta de un marco que sostiene una bancada fija.Prensas Las prensas dan forma a las piezas sin eliminar material. un pistón. pueden realizarse operaciones delicadas con piezas frágiles. conocida también como erosión por chispa. Láser La mecanización por rayo láser se consigue dirigiendo con mucha precisión un rayo láser. una fuente de energía y un mecanismo que mueve el pistón en paralelo o en ángulo recto con respecto a la bancada. las de rayo láser. El arco de plasma se utiliza para cortar materiales difíciles de seccionar con Electroquímica Este tipo de mecanización emplea también la energía eléctrica para eliminar material. Las prensas cuentan con troqueles y punzones que permiten deformar. haciendo que salten chispas que vaporizan puntos pequeños de la pieza. 411 . Se crea una celda electrolítica en un electrólito. También se usan para dar forma y grabar materiales muy delgados que se utilizan para fabricar componentes electrónicos como los microprocesadores. Otra aplicación es la fabricación de alambres muy finos. como el acero inoxidable y las aleaciones de aluminio. ultrasónicas y de haz de electrones. sin producir viruta. Se aplica una corriente de alta frecuencia entre la punta del útil y la pieza.

La tendencia en desarrollo y tecnologías es construir maquinas que no necesiten de la participación del hombre para realizar sus trabajos y otras que actúen a libre albedrio y no respondan a una serie de programación ya establecida. así es como se desarrollan las mas avanzadas innovaciones tecnológicas. el trabajo. nuevo campo de investigación Hasta hoy. Cada una de las maquinas es una concepción de ideas ¿Cómo llegaría hacer sí…? Es una idea. un pensamiento que evalúa el hombre y transforma en versiones físicas. que algún día pueden ser tomadas en serio. la intervención de los humanos en el desarrollo de las maquinas y la impresión que estas generan en la vida del mismo humano. La estimulación a los descubrimientos es la apertura de nuevos mercados con millones de clientes potenciales. un ejemplo son las articulaciones de la anatomía humana o los cálculos probabilísticos que realiza un ordenador para tomar una decisión. Cuando las investigaciones de nuevas tecnologías encuentran métodos más y más sofisticados surgen complejos mecanismos que simulan movimientos y análisis preestablecidos. su propósito la ayuda prestada al hombre incluso mayor que la del mismo hombre. pero ya es hora de incorporarle una 412 . pero limites no existen. Con la mecanización electroquímica son posibles muchas operaciones como grabar. Un concepto es muy claro: desde que se inventaron las maquinas el hombre las hizo con una intención específica que es hacer más fácil la vida. La Ética para las máquinas. lo que contextualizamos como alma o esencia divina por ser de un grado indeterminado de conocimiento tiene suficientes inconsistencias para trabajar durante tiempos indefinidos. solamente hay ideas con posibilidades mínimas. Desde un punto de vista pragmático todo estimulo físico y mental puede ser construido con las herramientas adecuadas. estos mecanismos toman ejemplo de los elementos naturales que permiten la recreación de dichos sucesos. La realidad es que la búsqueda de una maquina humanoide capas de tener existencia propia solo podemos asimilarlo dentro de los parámetros de la ciencia ficción. desde el punto de vista sentimental los lasos de afecto que nos unen con ciertas entidades van más allá de las limitaciones físicas e incluso mentales. sólo el Hombre se comprometió a un razonamiento ético. perforar y fresar. En que influyen las maquinas en la humanidad En la actualidad nos encontramos rodeados de un sin número de sistemas tecnológicos que avanzan a pasos agigantados y no es raro que la ciencia ficción en las películas muestren cada uno de los sueños tecnológicos que quisiéramos alcanzar. La pieza debe ser de un material conductor. marcar.. la investigación.utilizando el útil como cátodo y la pieza como ánodo y se aplica una corriente de alta intensidad pero de bajo voltaje para disolver el metal y eliminarlo. etc.

ya que es uno de los principales productos que movilizan a toda la industria en general. los empresarios y los gobernantes. Pero las máquinas son mucho más complejas y las hay de todo tipo. A palabra maquina puede definir tanto a un simple utensilio de cocina. etc. máquinas de musculación.Cuando hablamos de máquinas se nos vienen a la cabeza miles de pensamientos a los cuales relacionamos con máquinas de café. Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad. máquinas industriales. como a un diseño industrial de última generación.dimensión ética a algunas máquinas complejas. Por Sergio Moriello. esto les otorga a estos países un poder invalorable “La producción de la materia prima más importante del mundo”. como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones. Por eso el petróleo es 413 . y la segunda porque su mayor importancia radica en su alta demanda de exportación. dentro de estas divisiones tenemos el rubro de las máquinas simples. Se trata de un nuevo campo de estudio que considera a las máquinas. el petróleo se encuentra mayormente en los países subdesarrollados. ¿Donde está la relación entre uno y otro podría preguntarse usted? Pues la relación existe y es Petróleo A finales del siglo XIV y primeras décadas del siglo XX el petróleo se convirtió en el “oro negro del mundo” por dos razones: la primera por sus mejores condiciones como combustible ya que desplazó al carbón como principal energético en el mundo. dentro del mundo de las máquinas encontramos divisiones que se dan a partir de aplicaciones. las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. computadoras y robots. Tipos de maquinas Las máquinas simples: Cuales son y que características tienen . de él se obtienen la mayor parte de los productos que son procesados y convertidos en bienes del consumo. A diferencia del carbón.

aspx?tema=E se busca por cateos basados en el estudio geológico de los terreno. Cuéntame de México. sus usos y formas de consumo. Esta ponencia tratará la tesis del petróleo en México. de 414 . como también las amenazas a la sociedad como lo son la contaminación y los conflictos políticos (guerras). (vi: 15 de mayo de 2010) http://cuentame.2010. El petróleo. compuesto de diversos hidrocarburos. la primera explotación moderna se concreta en 1854 cuando DRAKE. de diámetro y de 100 a 700 m. de color oscuro. y había sido descubierto hace ya miles de años.inegi. o aceite mineral (petrae = piedra y oleum = aceite. EE. y se extrae perforando pozos de 30 a 50 cm. En el siglo III los chinos excavaron pozos y lo aprovecharon como iluminante. entre sus capítulos se describirá “¿Qué es el petróleo?. Los egipcios lo utilizaron en embalsamamientos por lo menos desde el 7 000 a. verdoso o negro. los tipos de petróleo. asfalto derivado del petróleo. se cree que se formo por la descomposición de materia animal y vegetal en los estratos superiores de la corteza terrestre. más ligero que el agua. la demanda de dicho combustible. ¿Qué es el petróleo? Es un líquido oleoso. a continuación se presenta una breve descripción.org. también se resumirá la historia del petróleo en México. inflamable.mx/economia/ petroleo/quees. en latín) fue conocido desde la remota antigüedad. perfora un pozo de 21 metros de 1 profundidad en Titusville (Pennsylvania. las principales potencias en producción del petróleo.). C.1 Como hemos dicho antes el petróleo es la fuente de energía más importante del mundo.UU. se asentaron los ladrillos de la torre de Babel y se calafateó el arca de Noé.el producto más indispensable para la dinámica económica de la industria en todo el mundo. Con betún. Sin embargo. Pero en realidad ¿Qué es el petróleo?. Economía. el petróleo se presenta en la naturaleza en los tres estados de la materia: El sólido (bit umen natural) • • el líquido (cr udo) y el gaseoso (gas natural) • INEGI. “La palabra petróleo viene del latín petra (piedra) y óleo (aceite)”. auxiliado por un herrero. las investigaciones históricas han comprobado que el petróleo.

en cuyo extremo va situada la broca. o permanece en su estrato y hay que extraerlo con bombas. depende del lugar en el que se encuentre el yacimiento del petróleo es la tecnología que se utiliza. y resiste a las olas. 415 GRAN DICCIONARIO ENCICLOPÉDICO ILUSTRADI DE SELECCIONE DEL READER´S DIGEST. pp. ya que los hay marítimos y terrestres. o bien mana con poca fuerza. La torre sirve para suspender y hacer girar el tubo de perforación. La plataforma puede ser flotante o descansar sobre pilotes anclados en el fondo marino. que lleva en su extremo superior un conjunto de válvulas y conexiones denominado Árbol de Navidad. que mantiene al pozo bajo control. . 1977. Luis Rosales Camacho. a medida que ésta va penetrando en la corteza terrestre se van añadiendo tramos adicionales de tubo a la cadena de perforación.profundidad. ahora nos interesa tratar el que utilizan las plataformas marinas el cual es nombrado “perforación submarina” y es el siguiente: Perforación submarina Otro método para aumentar la producción de los campos petrolíferos es la construcción y empleo de equipos de perforación sobre el mar (ha llevado a la explotación de más petróleo). 2924-2925.5 cm de diámetro.2 ¿Cómo se produce? Se dice que la extracción del petróleo es fácil aunque costosa. Control de surgencia Se comienza por bajar hasta cerca del fondo una cañería de 5 a 7. el viento y. Estos equipos de perforación se instalan. manejan y 2 mantienen en una plataforma situada lejos de la costa. La fuerza necesaria para penetrar en el suelo procede del propio peso del tubo de perforación. en aguas de una profundidad de hasta varios cientos de metros. en las regiones árticas. llamada tubería. los hielos. En México se encuentran 193 plataformas marinas. el petróleo brota a gran altura debido a la presión subterránea. IX. y el procedimiento que se hace para poder extraer el petróleo del subsuelo depende de donde se encuentre el yacimiento.

conectando sus gatos de bombeo mediante largas varillas de acero. Por lo general se efectúa el bombeo simultáneo de una serie de pozos vecinos. Bombeo mecánico con bombas aspirantes de profundidad.La surgencia del petróleo por la tubería. con bombas centrífugas de varias etapas. lo obliga a subir. el gas disuelto en el petróleo se desprende y al expandirse lo hace surgir. La presión del agua subyacente. 416 . Es la más efectiva. inyectando petróleo a presión que regresa a la superficie bombeado. 2. Artificial 1. que al transmitirse al petróleo. accionadas por gatos de bombeo. 3. a un excéntrico que se hace girar en una estación central. Bombo hidráulico. gas o aire. ubicadas cerca del fondo del pozo y accionadas por motores eléctricos controlados desde la superficie. Inyección a presión de agua. Es la menos efectiva de las tres. 4. que se transmite a éste y lo impulsa en su ascenso. Tres son las causas que pueden originar la surgencia natural. La presión del gas libre que cubre al petróleo. 2. y bombeo centrífugo. 4. al disminuir la presión por la perforación del pozo. Puede lograrse métodos: por dos 3. se logra por métodos naturales o artificiales: Natural 1. Cuando no existe gas libre y el agua no tiene presión suficiente o tampoco existe.

*Calentado. en los cuales. *Centrifugado de la emulsión. sin separarlo antes del gas y el agua salada que lo acompañan.Purificación. en las operaciones de surgencia. (vi: 15 de mayo de 2010) http://www. *Decantación en tanques de almacenamiento . evitando la agitación de la mezcla de agua salada y petróleo. *Métodos químicos. porque satisface la demanda de energéticos y de petroquímicos básicos y contribuye al desarrollo industrial de nuestro país.textoscientificos.29 de septiembre. *Unas vez purificado.com/textos cientificos 417 . seguido con una decantación posterior. por oleoductos u otros medios de transporte (buques cisternas. *Lavado con agua de la emulsión. no puede procesarse industrialmente. a las destilerías. por simple reposo el gas se separa espontáneamente. se lo envía a tanques de almacenaje y de ellos. Separación del gas Se efectúa en una batería de tanques.)3 Es el recurso natural más importante en nuestro país. 3 Extracción del petróleo. Destrucción de la emulsión agua salada-Petróleo Es uno de los problemas de difícil resolución que afronta la industria petrolífera.2005. Se trata de resolverlo en distintas formas: *Se previene la formación de emulsiones. para disminuir la viscosidad de los petróleos densos. El petróleo tal como surge. etc. térmicos o eléctricos (que son los más efectivos para desalinizar y deshidratar). Petróleo . vagones tanques.

Desde hace muchos siglos se usaba para cubrir paredes o cascos de embarcaciones. también como colorante. drogas. En 2005. paralelo al perfeccionamiento de los motores de 4 gasolina. se inyecta aire para poder sacar hasta un 45% adicional.2010. después. es desde la época prehispánica. plásticos de infinitas aplicaciones.aspx?tema=E 418 . La civilización moderna sería inconcebible son los incontables productos que de él se derivan: combustibles. En el caso de México se puede decir que su primer uso aunque puede ser casual. por lo cual estaba en busca de mas campos petroleros y México estaba abierto a las inversiones.org. Sin embargo. nuestros antepasados lo recogían de las chapopoteras y lo utilizaban en sus ceremonias a manera de incienso. pegamento o con fines medicinales. Ya a mediados del siglo XIX se convirtió en una de las principales fuentes de energía del mundo actual como ya lo hemos mencionado antes. el mayor porcentaje de producción tiene lugar en las aguas 4 territoriales.mx/economia/ petroleo/dondeesta. productos sintéticos innumerables. El auge del petróleo se inicio con la profundización de las sociedades industriales ya que el uso de maquinarias y automóviles que funcionan con base en este combustible es cada vez mayor. El petróleo es y seguirá siendo por un gran tiempo un recurso estratégico de gran influencia e importancia para las economías nacionales. Cuéntame de México. Historia del Petróleo en México.México cuenta con 193 plataformas marinas equipadas con brocas para perforar el subsuelo hasta llegar al yacimiento. Economía. Tabasco fue el primer lugar nacional en producción de crudo y gas natural.inegi. pero sólo veinte años más tarde se le tomo realmente enserio ya que la demanda del combustible venia en aumento. Usos del Petróleo. principalmente en los países industriales donde Estados unidos ya era un adversario importante. cauchos sintéticos. El crudo remanente permanece en el pozo. Para efectos del caso mexicano los primeros intentos de exploración industrial de las chapopoteras son de 1863. Al abrir un pozo se instalan los ductos y el hidrocarburo se extrae aprovechando la propia presión del yacimiento. colorante. (vi: 15 de mayo de 2010) http://cuentame. con lo que se recupera hasta 30% del contenido. y a veces para lámparas pero su utilización más importante ha sido fenómeno reciente. INEGI. lubricantes. pues con las técnicas disponibles es muy costoso extraerlo. Los usos del petróleo se trasladan a miles de años atrás.

Pero que lamentablemente ha llegado a su fin ya que a partir de 30 años para acá la visión ha sido totalmente otra. lo cual permitió que estas empresas durante este periodo se dedicaran a abusar de sus privilegios. La industria petrolera como muchas otras de la época estaba bajo el dominio de las grandes transnacionales que si claro beneficiaban el desarrollo del país pero de acuerdo a sus intereses y que con el tiempo provoca un desarrollo dependiente. trabajar bajo su estandarte político que era la constitución de 1917 En México. queriendo regresar a la doctrina de dejar a todo a las libres fuerzas del mercado haciendo a un lado la constitución y las prioridades del país y tomando más en cuenta los intereses privados e internacionales. impulsando fuertemente la industria petrolera y orientándola hacia las necesidades del país. el gobierno les ofreció todas las facilidades. los obreros petroleros decidieron 419 . Los primeros permisos fueron concedidos a empresas inglesas y estadounidenses que contaba con el capital y la experiencia en este negocio. El primero. lo cual con el tiempo provoco muchos descontentos y abusos que terminaron con la promulgación de la expropiación petrolera en 1938 que le dio un gran cambio al desarrollo del país. En segundo.A partir de estas fechas se puede abordar el tema de la industria petrolera controlada por las grandes transnacionales sin ninguna restricción. A continuación se presentan los tres grandes momentos de la Historia del Petróleo en México que se han presentado en el último siglo en cuestión de petróleo y así poder hacer una comparación con las nuevas políticas implementadas en épocas recientes. en 1901donde el presidente Porfirio Díaz expide la primera Ley del Petróleo que faculta al Ejecutivo Federal para otorgar permisos a particulares y compañías organizadas para explorar y explotar terrenos de propiedad federal la idea era poder erradicar el uso del carbón ya que iban en aumento su importación. defraudando al gobierno y desarrollando la industria de acuerdo a sus intereses. después de casi 20 años en el poder el grupo sonorense estaba lejos de haber cumplido con sus planes políticos y sobre todo.

“Se debe recordar. tras estudiar el asunto.llevar a cabo una huelga para presionar a los empresarios y poder obtener parte de las grandes ganancias de las empresas o por lo menos mejores condiciones de trabajo. sino como decisión de firmeza en el gobierno y como señal que no iba a estar sometido a las decisiones de las grandes transnacionales. Sin embargo. las compañías no obedecieron a tiempo. nadie sospechaba hasta la noche de ese día –ni las compañías petroleras ni sus gobiernos– la magnitud y los alcances de la medida expropiatoria. la Suprema Corte de Justicia decidió que el aumento que pedían era justo y ordenó que se les concediera. y de acabar con la explotación del subsuelo por los “usureros capitalistas extranjeros” “Al asumir la presidencia Cárdenas contaba con gran conocimiento de primera mano de ciertos aspectos del problema petrolero. El gobierno del general Cárdenas supo escoger el terreno del enfrentamiento con las compañías extranjeras y tomarlas por sorpresa. 306 420 . Desde su campaña electoral el general Cárdenas se mostro a favor de poner en mano de los trabajadores las fuentes de riqueza y los medios de producción. por lo cual el presidente Cárdenas decidió expropiarlas. gracias a su experiencia como jefe militar en la zona petrolera. había resentido la actitud de las empresas hacia sus trabajadores y autoridades locales desde su punto de vista las petroleras se habían comportado como si México fuera tierra de conquista” 5 La nacionalización del petróleo fue decidida el 9 de marzo de 1938. No planteó la nacionalización como cuestión de beneficios económicos o de derechos laborales. que el presidente 5 Meyer Lorenzo México y los Estados en el conflicto petrolero unidos COLMEX México 1972 pp.

el contexto internacional. quién decide sobre los cielos. Y por último. hasta el inicio de la época neoliberal se tenía la capacidad suficiente para cubrir las necesidades. 2 febrero 2008 421 . se da el desarrollo de 6 la industria petrolera bajo una nueva visión y con nuevos objetivos poniendo en primer orden el interés nacional dejando a un lado la dependencia con los capitales extranjeros y dando lugar al mayor auge en la historia. las crisis y las malas políticas económicas son el detonador de la nueva época en la que nos encontramos. que de antemano estaba asegurado. No era una argucia legal para tener el apoyo del movimiento obrero.7 7 Gily Adolfo la jornada diario. sección Quien opinión. el suelo y el subsuelo de este territorio. o si los poderes del gobierno de la República elegido y apoyado por su 6 pueblo.Cárdenas decretó la nacionalización cuando las empresas petroleras se negaron a acatar un laudo de la Suprema Corte de Justicia de la Nación sobre el contrato colectivo con sus trabajadores. si un grupo de empresas extranjeras subsidiarias de sus gobiernos. que prestos salieron en defensa de ellas. 2 febrero 2008 Gily Adolfo la jornada diario. Durante 1970-1985. sección Quien opinión. Petroleó: manda en México. Petroleó: manda en México.” Después de esta importante decisión se puede decir. Fue utilizar lo que las empresas creían un incidente jurídico menor para plantear una cuestión de fondo: quién manda. Nos hacen ver que es lo mejor cuando en la realidad los resultados no son los mejores es algo ilógico que se sigan empeñando en continuar con esta visión donde se regresa a la época porfirista donde la doctrina dominante era el utilitarismo y el libre mercado. las importaciones eran mínimas. finales de los años setentas se da un punto de inflexión donde todo lo que se venía logrando se modifica rotundamente.

. Irak. habiendo un combustible más barato y que en México se desperdicia el 8 FTAV. Irán. realidades. UACM.Como se puede ver si la producción de petróleo es enorme. Chile y Bolivia. Brasil. ya que se disputa en ser una potencia en la producción del 9 En México en los últimos años el valor de las exportaciones de petróleo crudo es inferior al de las importaciones de gas 8 Torrea Ocampo José Felipe PEMEX mitos. en orden de producción. UACM. si no para satisfacer la demanda interna por lo menos para disminuir las exportaciones y fortalecer el mercado interno9 Potencias en el mercado del Petróleo. Venezuela. Trinidad y Tobago. testimonios y propuestas. Hace algunos años se creía que los principales productores mundiales de petróleo eran Estados Unidos. México 2006 pp. En Iberoamérica seguían a Venezuela. Koweit. México. México 2006 pp. petrolíferos. Un ejemplo que ilustra lo ilógico y contradictorio de las políticas implementadas es el caso del gas natural. realidades. URRSS. de las mayores a nivel mundial pero “el petróleo crudo sólo sirve para refinarlo prácticamente no tiene otro uso “ El cambio en la política que nos ha llevado a una situación de dependencia que está basada en bastantes mentiras creadas y difundidas desde el gobierno que busca aparentar el peor de los panoramas para la industria petrolera cuando en realidad si tiene muchas deficiencias pero la mayoría son sabidas por propio gobierno. natural. Perú. Pero ahora existe una gran competencia en este sector del comercio. Torrea Ocampo José Felipe PEMEX mitos. Colombia. 142-151 422 . testimonios y propuestas. Argentina. gasolinas y petroquímicos en el mejor de los casos las cifras son muy cercanas. Todo esto debido a un plan para ir debilitando a Pemex ya que en los últimos años se ha ido debilitando la producción nacional por la importación de productos que bien se podrían producir en las refinerías mexicanas. que se utiliza para la generación de energía. 57. Arabia Saudita. cuando en realidad es el combustible más caro y que la producción de México no satisface la demanda.

Sucede que se le ha prestado poca atención a la creciente importancia en la producción de hidrocarburos de los países del África subsahariana y de las ex repúblicas soviéticas de Asia Central en los últimos años. aunque muchas empresas líderes occidentales también tienen inversiones en el país. Los ingresos por exportaciones petroleras del pequeño país atlántico (es sólo 423 . Por esta razón considero importante citarla aquí para compartirla con usted. Además. no se queda atrás y es el tercer productor subsahariano. A principios de siglo.también llamado “oro negro”. Las exportaciones petroleras angoleñas crecieron en un asombroso 400% entre el 2002 (cuando terminaron los 27 años de guerra civil) y el 2006. Guinea Ecuatorial no es un país en el que el argentino medio piense al nombrar productores de hidrocarburos. Angola es el segundo productor de petróleo en África subsahariana detrás de Nigeria. El consulado había sido cerrado por el gobierno de Bill Clinton en los ‘90 dadas las violaciones a los derechos humanos cometidas en el país africano. la única ex colonia española en la región. como tampoco lo son Angola o los asiáticos Turkmenistán o Kazajistán. Estados Unidos reabrió su consulado en Guinea Ecuatorial. entonces subsecretario de Estado de EE. Guinea Ecuatorial. es el segundo mayor proveedor de petróleo de China detrás de Arabia Saudita. quien afirmó que "el petróleo africano se está convirtiendo a gran velocidad en un interés estratégico nacional". Al estar leyendo acerca del petróleo me encontré con una noticia que se me hizo muy interesante ya que describe como han ido cambiando las estadísticas sobre quien está más arriba o debajo de la lista.UU. para asuntos africanos. El fundamento principal de la decisión de la Casa Blanca puede encontrarse en una declaración hecha en el 2002 por Walter Kansteiner. Sin embargo.

Esta situación se reflejó en muchos medios norteamericanos allá por 2003 cuando Estados Unidos invadió Irak. Hoy lo sigue siendo. el mayor productor petrolero 424 . pero aún así son altas. La región del golfo está formada por varios países. Los medios llamaban a la región el "Otro Golfo" o el "Nuevo Golfo". con el 7. en referencia al Golfo Pérsico y la veían como una alternativa viable y necesaria de suministro para las necesidades petroleras y gasíferas estadounidenses. y Turkmenistán. donde se produce un 280% más de gas y un 185% más de petróleo ahora que hace diez años. Fue por entonces que se comenzó a hablar del Golfo de Guinea como una zona importante para los intereses estadounidenses.000%. también africano aunque ubicado en la costa opuesta. la región podría llegar a suministrar hasta el 25% de las importaciones estadounidenses para el 2015. Los países nombrados hasta aquí conforman dos regiones claves geo-políticamente: la costa occidental africana (sobre todo en la región del Golfo de Guinea) y la región de las ex repúblicas soviéticas en el centro asiático. Las tasas de crecimiento en la producción de petróleo y gas en los países de Asia Central no han sido tan elevadas. Fue Sudán. Geografía del futuro. Hubo un sólo país del mundo. Destacan sobre todo Kazajistán. un 1. con un crecimiento más pronunciado en el mismo lapso. donde el aumento en la última década fue del 82% en gas y 113% petróleo. Son regiones cuya importancia crece a gran velocidad y que están inmersas en la lucha de poder entre distintos países desarrollados y China por controlar la producción de combustible.994%.un poco más grande que la provincia de Tucumán) crecieron. Según la revista financiera Forbes. en la última década.

China también se interesa en la región.entre ellos es Nigeria. China está invirtiendo grandes cantidades en el área. pero suele ser incluida en los análisis de la región. China cuenta con la ventaja de no tener que enfrentarse a la clase de dilemas éticos de algunos gobiernos occidentales. rápido y seguro y por eso a Washington le conviene establecer vínculos comerciales. y está sentando precedentes de lo que se avecina en los próximos años en el terreno del comercio internacional: la puja por dominar las nuevas fuentes de producción energética. Angola no pertenece al golfo por estar más al sur. Santo Tomé. Sudán también está entre los países desde donde más importa petróleo el país asiático. El transporte desde allí es sencillo.000 millones de dólares que le hizo a Angola hace un par de años. Benin. como el préstamo de 3. Al encontrarse en línea diagonal a la costa atlántica estadounidense. Al igual que en la península arábica. que continuará en el futuro. el Golfo de Guinea cuenta con una ubicación geográfica privilegiada para exportar petróleo y gas a los Estados Unidos. Así como Angola se ha convertido en uno de sus principales proveedores. De hecho. y a una distancia relativamente corta según estándares transoceánicos. cuya importancia para la industria petrolera es conocida hace tiempo. Técnicamente. Entre 1996 y 2006 su demanda total por petróleo creció un 102% (contra un 12% de crecimiento de la demanda estadounidense) y África ofrece la mejor opción para saciar ese aumento. Camerún y Gabón. entre 1996 y 2006 su producción aumentó un 20%. varios de los países del Golfo de Guinea son gobernados por dictaduras o 425 . el África sahariana o en Irán. La clave de estos países se encuentra en Guinea Ecuatorial y en los aportes menores que puedan ofrecer los demás países que sobre-miran el golfo: Togo.

Por ende. Según el informe de corrupción global 2007 de Transparency International. Angola y Nigeria se ubican juntos en el lugar 147. donde sólo dos personas han gobernado desde la obtención de la independencia en 1968: Francisco Macías y su sobrino Teodoro Obiang Nguema. son altamente corruptos y tienen pésimos antecedentes en el respeto por los derechos humanos. Sudán en el 172 y Uzbekistán en el 175. La oposición acusa a Obiang Nguema de ser uno de los dictadores más sangrientos de África. en el 2002 un periodista de la BBC le preguntó a Obiang Ngume por qué desaparecía tanto dinero. Africa mía. ya que convoca a elecciones periódicas. todos los partidos opositores se retiraron de la contienda presidencial antes de los comicios.autarquías. sobre un total de 179 posiciones. Tanto en Guinea Ecuatorial como en otros de estos paísesa se ha denunciado en más de una oportunidad la desaparición de millones de dólares de ingresos por hidrocarburos de las arcas públicas en los últimos años. Un ejemplo contundente lo ofrece Guinea Ecuatorial. respondió que era un secreto de Estado y que no tenía que explicarle a nadie el destino dado a ese dinero. El presidente. que se encontraba en campaña en ese momento. Al respecto. Guinea Ecuatorial en el 168. Lo mismo puede decirse de las naciones del Centro de Asia. quien derrocó y ejecutó a su tío en un golpe de Estado en 1979. Kazajistán está en el 150. Algo parecido a 426 . comerciar con los países del "otro golfo" puede llegar a plantear un problema moral (al menos de la boca para afuera) para Estados Unidos y los demás países desarrollados de Occidente. Aunque legalmente Obiang Nguema es un presidente democrático. Turkmenistán en el 162. no siempre tiene oposición: en el 2002.

cuando se convirtió en secretario del comité central del Partido Comunista. Kazajistán es el mayor productor petrolero de la región y exporta mucho a través del Golfo Pérsico (gracias a un acuerdo con Irán) y cada vez más hacia China. por otro está Rusia y por otro Irán. sobre todo Turkmenistán y Uzbekistán (el mayor productor de gas de las repúblicas ex soviéticas de Asia central). que no es una opción viable. la construcción de un gasoducto a Rusia. vía el Caspio. A diferencia de los países costeros africanos. La posibilidad de que negocien con Irán es resistida desde Washington. Ambos países tienen pocas salidas porque de un lado está Afganistán. varios de los países centro-asiáticos tienen complicaciones al momento de exportar. 427 . y llegar desde ahí a Europa. pero lo hacen. En mayo. Les queda la costosa opción de atravesar el Caspio para salir a través de la región del Caúcaso. Como las de la mayoría de los productores asiáticos de hidrocarburos. las instituciones políticas kazakas no son de lo más firmes: Nazarbayev preside el país desde la caída de la URSS en 1991 y forma parte de los escalones más altos del gobierno desde 1979. Las relaciones energéticas entre la UE y Rusia son tensas desde hace tiempo. ninguno de los dos países querría hacer negocios con Rusia. la Unión Europea había intentado convencer a Nazarbayev de construir un gasoducto a Turquía. Por su parte. el presidente Nursultan Nazarbayev le asestó un duro golpe a las necesidades estratégicas europeas cuando acordó con el primer ministro ruso Vladimir Putin y el presidente de Turkmenistán. Gurbanguly Berdymukhammedov. Tiempo antes. En un mundo ideal. la vecina Turkmenistán es uno de los países donde menos se respetan los derechos humanos.lo que en otros países se llama "fondos reservados".

De ahí el gran interés de las grandes petroleras europeas y estadounidenses por desarrollar campos petrolíferos en la zona norte del Mar Caspio. a nuestro país no le quedan más de diez años de reservas. Lo mismo sucede con Uzbekistán. intervino ante el gobierno de Nazarbayev a principios de octubre cuando el gobierno kazako amenazó con romper un contrato con la empresa italiana Eni. al igual que Ecuador. Eso también explica por qué el primer ministro italiano. el cartel petrolero tan temido por los compradores de petróleo porque limita la producción de sus miembros a fin de regular el precio del barril. los países centro-asiáticos presentan una gran ventaja para los compradores occidentales de gas y petróleo al no pertenecer a la OPEP. Si las estimaciones actuales sobre las reservas petroleras y gasíferas argentinas son correctas. En este momento. Los principales productores africanos subsaharianos solían ofrecer la misma ventaja de no pertenecer a la OPEP y por lo tanto no tener limitada la extracción. que se está encargando de atraer a los demás países regionales a la organización. Romano Prodi. pero la situación demostró la preocupación de Prodi por defender los intereses de empresas italianas ante cualquier clase de volatilidad política en Asia central. Puede suponerse que cualquier otro líder de la UE hubiera actuado de forma similar. Irán y China. A pesar de sus relaciones con Rusia. La excepción era Nigeria. la Argentina deberá importar hidrocarburos 428 .según Amnesty International. Fue Nigeria quien más negoció para incorpora al cartel a Angola (sucedió en diciembre pasado) y también fue quien invitó a Sudán a unirse. El contrato no se rompió. Si esto sucedo. Sudán. son observadores en la organización.

REVISTA ELCTRÓNICA “Noticias de la Semana”.revistanoticias. El problema final es la tradicional alianza. hoy en día nuclear. teniendo colonias en donde se produzca y refine serían potencias en producción y a demás no tendrían que comprar y florecerían como un país independiente.y entonces Angola.php? art=954&ed=1614 429 .10 Amenazas a la sociedad. y como es un recurso natural NO RENOVABLE. pero existe uno aun peor al que estamos expuestos todos los países: “La Guerra”. Como lo dice la cita anterior. Turkmenistán y la zona del Golfo de Guinea pasarán a ser nombres importantes porque estarán entre quienes determinen el valor internacional del combustible. en realidad Estados Unidos era ya un país rico en petróleo. Cuando Estados Unidos ataque Irán la Tercera Guerra Mundial. con grandes reservas dentro de su territorio o bajo su control. Que el caso no es el de nuestro país. Como podemos notar la contaminación es una de los desastres que puede causar el petróleo. ya que no cuenta con la tecnología suficiente como para refinarlo.. para así evitar que otros países rivales como China o Rusia puedan beneficiarse de los recursos de petróleo de Oriente Medio y que puedan alcanzar un desarrollo mayor que Estados Unidos.ar/comun/nota. México sólo es productor de petróleo crudo. y refinado a un precio mucho más alto.com. 10 El tema del petróleo ahora desafía algunas amenazas a la sociedad. se ha mencionada que es el peor desastre ecológico ocurrido. esto además de ser un peligro para nuestra sociedad es un desastre ecológico que aún del todo no ha llegado a afectar a nuestro país.. y todo por no contar con la tecnología suficiente para hacerlo por nosotros mismos y no depender de otros países. que hace años que empezó Rodrigo Tichard. Ya es hora de ir conociéndolos. (vi: 16 de mayo de 2010) http://www. puedes creer que nuestro país exporta petróleo crudo y después lo vuelve a comprar importado. entre Irán y Rusia. ahora en la actualidad los países luchan por ser el líder en producción de petróleo ya que es muy caro comprarlo y aun más refinarlo.U. De lo que se trata es de apoderarse del control del petróleo del mundo. Kazajistán.2010. Las nuevas Potencias. ahora en nuestro país ha sido víctima de derrames en el Golfo de México a causa de la explosión de una de las plataformas de Estados Unidos. y realmente no necesitan de recursos energéticos ajenos. Petróleo. es decir. pero si a algunos estados de E. Me he topado con artículos que tratan sobre la Guerra de Estados unidos-Irak en los cuales menciona que esa guerra es sólo una estrategia geo-política para que nuestro país vecino tenga un control energético en el mundo.

la inteligencia artificial y la ingeniería de control. Robótica La robótica es la ciencia y la tecnología de los robots. que en tanto capital no puede por definición responder al interés de la nación sino al suyo propio. la verdad son una serie de incongruencias que son una ofensa para el pueblo. Se ocupa del diseño. 430 . Otras áreas importantes en robótica son el álgebra. Conclusiones. Y no en el sentido de que todo debe ser controlado por el gobierno sino que debe haber áreas como lo es el petróleo que son estratégicas que deben ser controladas por alguien que busque el beneficio general y no el particular. la electrónica. Pero pareciera que esa disputa ya no es disputa por que desde años atrás hay un ganador y son las trasnacionales como en el Porfiriato. son claros que la época a partir de la 11 expropiación es la mejor época no sólo para el crecimiento en infraestructura inversión y demás en la industria petrolera sino también en es en este periodo donde se da el mejor desarrollo de la sociedad en su conjunto en todos sus ámbitos. la informática. y no se diga de la falta de interés para que aquí se produzcan los productos con mayor valor agregado y no se tengan que importar. si no dejaría de ser capital–. con capital extranjero o nacional pero siempre capital privado –es decir. México vive una etapa de trascendencia. “Actualmente ante la amenaza de privatizar Pemex en todo o en parte. los fundamentos de la disputa deben plantearse sobre el mismo terreno: quién manda en México”11.en el Mar Caspio. los autómatas programables y las máquinas de estados. llegará también a Occidente. La robótica combina diversas disciplinas como son: la mecánica. donde se tiene que tomar medidas al respecto ya que desde la época neoliberal los resultados no son nada optimistas ya que el modelo por si sólo es desventajoso pero lo peor es que se acrecienta con las políticas económicas de nuestros gobernantes No se puede vivir con incongruencias tan grandes como el régimen impositivo que no fue abordado pero que es el mayor freno para el desarrollo de la industria petrolera. En general creo que los datos presentados aunque muy básico. manufactura y aplicaciones de los robots.

definiendo a la ciencia que estudia a los robots. Un robot no debe dañar a un ser humano o. fue traducida al inglés como robot. haciéndose con el poder._ Historia de la robótica La historia de la robótica ha estado unida a la construcción de "artefactos". Tabla Histórica F e c h a Import ancia No mb re del rob ot Inve ntor S ig lo I a . C . por su inacción. Asimov creó también las Tres Leyes de la Robótica: 1. que significa trabajos forzados. el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos. o simplemente aliviando de las labores caseras. Filó n de Biza ncio. El término robótica es acuñado por Isaac Asimov. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos. excepto si estas órdenes entran en conflicto con la Primera Ley. 3. que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su automóvil mediante telegrafía sin hilo. escrita por Karel Capek en 1920. Un robot debe proteger su propia existencia. 2. el ajedrecista automático. y a n t e s Descri pcion es de más de 100 máqui nas y autóm atas. la palabra checa robota. dejar que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano.El término robot se popularizó con el éxito de la obra RUR (Robots Universales Rossum). Her ón de Alex 431 . incluy endo un artefa Au ton om a Ctes ibius de Alex andr ia. hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley. En la traducción al inglés de dicha obra.

dispar an flecha Ju gu ete s Ka rak uri Hisa shig e Tan aka 432 . agitar sus alas y excret ar. Di ge sti ng Du ck Jacq ues de Vau cans on 1 2 0 6 Prime r robot huma noide progr amabl e Ba rco co n cu atr o mú sic os AlJaza ri 1 8 0 0 s Jugue tes mecá nicos japon eses que sirven té. y otro s c. 1 4 9 5 Diseñ o de un robot huma noide Ca bal ler o me cá nic o Leo nard o da Vinc i 1 7 3 8 Pato mecá nico capaz de comer . un órgan o de viento . una máqui na de vapor. una máqui na opera da media nte una mone da.cto con fuego. en Pneu matic a y Auto mata de Herón de Alexa ndria rob oti za do s andr ia.

1 9 2 1 Apare ce el primer autóm ata de ficción llama do "robot ". basad a en una patent e de Devol 6 Un im ate Geo rge Dev ol 1 9 4 8 Exhibi ción de un robot Els ie y El Willi am Gre y 1 9 6 1 Se instal a el primer Un im ate Geo rge Dev 433 . Ro ss um 's Un ive rsa l Ro bot s con comp ortami ento biológ ico simpl e5 me r Walt er Kare l Čap ek 1 9 3 0 s Se exhib e un robot huma noide en la World' s Fairs entre los años 1939 y 1940 Ele ktr o Wes ting hou se Elec tric Cor pora tion 1 9 5 6 Prime r robot comer cial. apare ce en R. de la comp añía Unim ation funda da por Georg e Devol y Josep h Engel berge r.U.s y pintan .R .

el estudioso chino Su Song levantó una torre de reloj en 1088 con figuras mecánicas que daban las campanadas de las horas. autómatas musicales que funcionaban con agua. un produ cto de Unim ation PU M A Vict or Sch ein man 2 0 0 Robot Huma noide AS IM Hon da Mot . entre los que había útiles de cocina. vapor y agua. y en 1206 los primeros robots humanoides programables. un inventor musulmán de la dinastía Artuqid. C. También el ingeniero Herón de Alejandría (10-70 d. Las máquinas tenían el aspecto de cuatro 434 1 9 7 5 Brazo manip ulador progr amabl e univer sal.) creó numerosos dispositivos automáticos que los usuarios podían modificar. y describió máquinas accionadas por presión de aire. diseñó y construyó una serie de máquinas automatizadas. Por su parte. Ltd Fa mu lus KUK A Rob ot Gro up Los primeros autómatas En el siglo IV antes de Cristo. Al Jazarií (1136–1206). el matemático griego Arquitas de Tarento construyó un ave mecánica que funcionaba con vapor y al que llamó "La paloma".robot indust rial ol 1 9 6 3 Prime r robot "pallet izing"7 Pal leti zer Fuji Yus oki Kog yo 0 1 9 7 3 Prime r robot con seis ejes electr omec ánico s capaz de despl azars e de forma bíped a e intera ctuar con las perso nas O or Co.

Cuando estuvieron listos para intentar nuevamente con los robots caminantes. En el sentido común de un autómata. Entre ellos destacaron los Jaquemarts. Los robots con forma de perro o 435 . Estos robots imitaban insectos y artrópodos en funciones y forma. Su mecanismo tenía un tambor programable con clavijas que chocaban con pequeñas palancas que accionaban instrumentos de percusión. navegación y planeo de ruta. muñecos de dos o más posiciones que golpean campanas accionados por mecanismos de relojería china y japonesa. entreteniendo a los invitados en las fiestas reales. En una exposición de Caixa Galicia en Ponferrada Con más de 4 piernas. En 2002 Honda y Sony. conocido como el "Edison japonés". comenzaron a vender comercialmente robots humanoides como “mascotas”. Como se ha hecho notar anteriormente. algunos de los cuales servían té. comenzaron con pequeños hexápodos y otros tipos de robots de múltiples patas. desde la generalización del uso de la tecnología en procesos de producción con la Revolución industrial se intentó la construcción de dispositivos automáticos que ayudasen o sustituyesen al hombre. una barrera para tormentas del Plan Delta en los Países Bajos construida en los años 1990. el mayor robot en el mundo tendría que ser el Maeslantkering. Robots equipados con una sola rueda fueron utilizados para llevar a cabo investigaciones sobre conducta. la tendencia se dirige hacia ese tipo de cuerpos que ofrecen gran flexibilidad y han probado adaptabilidad a cualquier ambiente. Aibo de Sony. Sólo recientemente se han hecho progresos hacia los robots con locomoción bípeda.músicos a bordo de un bote en un lago. estos robots son estáticamente estables lo que hace que el trabajar con ellos sea más sencillo. Podían cambiarse los ritmos y patrones que tocaba el tamborilero moviendo las clavijas. Sin embargo. creó una serie de juguetes mecánicos extremadamente complejos. la cual se cierra automáticamente cuando es necesario. disparaban flechas retiradas de un carcaj e incluso trazaban un kanji (caracter japonés). Desarrollo moderno El artesano japonés Hisashige Tanaka (1799–1881).8 Por otra parte. esta estructura no satisface los requerimientos de movilidad o generalidad.

Aunque las historias sobre ayudantes y acompañantes artificiales. ofrece la sensación de tener un propósito propio. No hay un consenso sobre qué máquinas pueden ser consideradas robots. Por lo general. por su apariencia o sus movimientos. En la práctica. No obstante. hacer funcionar un brazo mecánico. 3. los robots reales siguen siendo limitados. el Unimate. Comparados con sus colegas de ficción. El primer robot programable y dirigido de forma digital. especialmente si ése 436 . pero sí existe un acuerdo general entre los expertos y el público sobre que los robots tienden a hacer parte o todo lo que sigue: moverse. la gente reacciona de forma positiva ante los robots con los que se encuentra. comportamiento imita al de los humanos o a otros animales. esto es por lo general un sistema electromecánico que. Los robots domésticos para la limpieza y mantenimiento del hogar son cada vez más comunes en los hogares. las máquinas totalmente autónomas no aparecieron hasta el siglo XX. así como los intentos de crearlos. el ejemplo más notorio ha sido Aibo de Sony. sentir y manipular su entorno y mostrar un comportamiento inteligente._ Robot Un robot es una entidad virtual o mecánica artificial. una ansiedad que se ve reflejada en el retrato a menudo perverso y malvado de robots presentes en obras de la cultura popular. existe una cierta ansiedad sobre el impacto económico de la automatización y la amenaza del armamento robótico. tienen una larga historia.de serpiente se encuentran. La palabra robot puede referirse tanto a mecanismos físicos como a sistemas virtuales de software. en una fase de producción muy amplia. sin embargo. fue instalado en 1961 para levantar piezas calientes de metal de una máquina de tinte y colocarlas. aunque suele aludirse a los segundos con el término de bots.

Son sistemas mecánicos multifuncionales con un sencillo sistema de control. desde los más elementales (cambio de herramienta o de efecto terminal). La subdivisión de los Robots. Zoomórficos e Híbridos. pero además poseen sensores que envían información a la computadora de control sobre el estado del proceso. Manipuladores. es definida por el tipo de configuración general del Robot. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza. Robots con control sensorizado. • 1ª Generación. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano. se hace en los siguientes grupos: Poliarticulados. Robots de aprendizaje. 1. se ha introducido para incrementar la flexibilidad funcional de un Robot a través del cambio de su configuración por el propio Robot. tal como se ha indicado. • 2ª Generación. Androides. Robots inteligentes.• 4ª Generación. El metamorfismo admite diversos niveles. El concepto de metamorfismo. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador para que realice los movimientos necesarios. El modo de hacerlo es a través de un dispositivo mecánico. 4. bien manual. de reciente aparición. hasta los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. puede ser metamórfica. de secuencia fija o de secuencia variable. son muy diversos y es por tanto difícil establecer una clasificación coherente de los mismos que resista un análisis crítico y riguroso. Móviles. Poliarticulados 437 . Los dispositivos y mecanismos que pueden agruparse bajo la denominación genérica del Robot. con base en su arquitectura. • 3ª Generación. Son similares a los anteriores._ Clasificación de los robots Según su cronología • Según su arquitectura La arquitectura. Esto permite una toma inteligente de decisiones y el control del proceso en tiempo real.

Móviles Son Robots con grandes capacidad de desplazamiento. constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. o a través de bandas detectadas fotoeléctricamente. y destinados. los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada. Zoomórficos 2. En este caso. fundamentalmente. pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia. actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo. • 4. En este grupo se encuentran los manipuladores. Los Robots zoomórficos caminadores 438 . Actualmente los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. es el de la locomoción bípeda. que considerados en sentido no restrictivo podrían incluir también a los androides. • • 3.En este grupo están los Robots de muy diversa forma y configuración cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas y con un número limitado de grados de libertad". Los Robots zoomórficos. Uno de los aspectos más complejos de estos Robots. al estudio y experimentación. Los experimentados efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. y sobre el que se centra la mayoría de los trabajos. el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot. basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Androides Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemática del ser humano. los Robots industriales.

tal es el caso de los Robots personales. En parecida situación se encuentran algunos Robots antropomorfos y que no pueden clasificarse ni como móviles ni como androides. los robots comerciales e industriales son ampliamente utilizados. un dispositivo segmentado articulado y con ruedas. bien sea por conjunción o por yuxtaposición. búsqueda y rescate de personas y localización de minas terrestres. piloteando o autónomos._ La robótica en la actualidad En la actualidad. 5. investigación en laboratorios y en la producción en masa de bienes industriales o de consumo. • 5. De igual forma pueden considerarse híbridos algunos Robots formados por la yuxtaposición de un cuerpo formado por un carro móvil y de un brazo semejante al de los Robots industriales. en transporte. armamento. montaje y embalaje. y realizan tareas de forma más exacta o más barata que los humanos. es al mismo tiempo uno de los atributos de los Robots móviles y de los Robots zoomórficos. Por ejemplo. cirugía.multípedos son muy numeroso y están siendo experimentados en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos. También se les utiliza en trabajos demasiado sucios. Los robots son muy utilizados en plantas de manufactura. 439 . minería.9 Otras aplicaciones incluyen la limpieza de residuos tóxicos. peligrosos o tediosos para los humanos. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes. Híbridos Estos Robots corresponden a aquellos de difícil clasificación cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas. capaces de evolucionar en superficies muy accidentadas. en exploraciones en la Tierra y en el espacio.

Ginecología.I. Además de los campos mencionados. de que el cuidado del hogar para la población de edad avanzada pueda ser desempeñado por robots. en lugar de recepcionistas humanos o vigilancia) y tareas de búsqueda y rescate. Para esas tareas se suele recurrir a robots de tipo artrópodo. los robots son utilizados para transportar muestras biológicas o químicas entre instrumentos tales como incubadoras. También la automatización de laboratorios es un área en crecimiento. con aplicaciones en Urología. 440 .R. muchos robots son diseñados en simuladores mucho antes de construirse y de que interactúen con ambientes físicos reales. Cirugía Pediátrica. Otros lugares donde los robots están reemplazando a los humanos son la exploración del fondo oceánico y exploración espacial. Computer Motion e Intuitive Surgical. Europa y Asia para que sus robots sean utilizados en procedimientos de cirugía invasiva mínima. esperanza. se han desarrollado ya dos modelos de robot daVinci por esta última. un equipo de 5 robots desarrollado totalmente en un ambiente virtual para jugar al fútbol en la liga mundial de la F. con dos compañías en particular. manejadores de líquidos y lectores. Un buen ejemplo de esto es el equipo Spiritual Machine. una tendencia relacionada con la miniaturización de los componentes electrónicos que se utilizan para controlarlos.Expo 2005. se ha logrado un gran avance en los robots dedicados a la medicina. Los robots parecen estar abaratándose y reduciendo su tamaño._Aplicaciones: Usos médicos Recientemente. servicios (por ejemplo. Desde la compra de Computer Motion (creador del robot Zeus) por Intuitive Surgical. Aquí. que han recibido la aprobación regulatoria en América del Norte. En la actualidad. Cirugía Torácica. Cirugía Cardíaca y ORL. existen más de 800 robots quirúrgicos daVinci en el mundo.A. Nagakute (Aichi) Existe una gran 6. especialmente en Japón. hay modelos trabajando en el sector educativo. Además. Cirugía general.

ya que la víctima puede detener el ataque del Tupilaq y reprogramarlo con magia para que busque y destruya a su creador. Ellis de 1865 El Hombre de Vapor de las Praderas se expresa la fascinación americana por la industrialización. Una leyenda hebrea habla del Golem. de Čapek. Algunos de estos autómatas ayudan al dios a forjar la armadura de Aquiles. se dice que Cadmo sembró dientes de dragón que se convertían en soldados. Sin embargo.(escrita en colaboración con su hermano Josef en 1920.U. aparece una mujer que parecía una muñeca mecánica. Modelos militares Un impulsor muy significativo de este tipo de investigaciones es el desarrollo de equipos de espionaje militar. Destacan también el éxito de las bombas inteligentes y UCAVs en los conflictos armados. y en la obra de Edward S. emplear un Tupilaq para este fin puede ser una espada de doble filo. dios griego de los herreros. y Galatea._ Los robots en la ficción Mitología Muchas mitologías antiguas tratan la idea de los humanos artificiales. las leyendas de los Inuit describen al Tupilaq (o Tupilak). Por su parte.Modelos de vuelo En fases iniciales de desarrollo hay robots alados experimentales y otros ejemplos que explotan el biomimetismo. Literatura Ya en 1817. son en cualquier caso dispositivos mecánicos de apariencia humana. por supuesto. Como se indicaba más arriba. También el . otros hechos de oro e incluso mesas que se podían mover por sí mismas. escenificada en Nueva York 441 7. Se espera que los así llamados nanomotores y cables inteligentes simplifiquen drásticamente el poder de locomoción. que un mago puede crear para cazar y asesinar a un enemigo. representada por primera vez en 1921. sin olvidar el empleo de sistemas robóticos para la retirada de minas antipersonales.R. en un cuento de Hoffmann llamado El Coco. cobró vida. no se describe a esas máquinas como "robots" o como "androides". la primera obra en utilizar la palabra robot fue la obra teatral R. la estatua de Pigmalión. según la Ilíada Aunque. mientras que la estabilización en vuelo parece haber sido mejorada substancialmente por giroscopios extremadamente pequeños. Hefesto (Vulcano para los romanos) creó sirvientes mecánicos inteligentes. una estatua animada por la magia cabalística. En la mitología clásica.

Yo. aunque parecen felices de servir. pero están más cerca del concepto moderno de androide o clon. sería desarrollado más tarde por la película Metrópolis. como Inteligencia Artificial de Steven Spielberg. El resto de las leyes se modificaron para ajustarse a este añadido. En la serie "Futurama" de Matt Groening. La obra comienza en una fábrica que construye personas artificiales llamadas robots. existen series muy populares como Robot Wars y Battlebots. de batallas de estilo sumo entre robots. Pueden pensar por sí mismos. Robot y El hombre bicentenario. aplicadas del Cine y televisión El tono económico y filosófico iniciado por R. Así llegó a formular sus Tres Leyes de la Robótica. Este autor consideró seriamente la serie ideal de instrucciones que debería darse a los robots para reducir el peligro que éstos representaban para los humanos. El autor no fue consciente de esto en un principio. Según el Oxford English Dictionary. El autor más prolífico de historias sobre robots fue Isaac Asimov (1920-1992). que colocó los robots y su interacción con la sociedad en el centro de muchos de sus libros. con su inacción que la humanidad sufra daño". en el sentido de que se trata de criaturas que pueden confundirse con humanos. como ciudadanos. En cuestión está si los robos están siendo explotados. La edición en inglés se publicó en 1923). así también como Cortocircuito y la versión de Disney: Wall-E. y las populares Blade Runner (1982) o The Terminator (1984). hidráulica y otros términos similares que se refieren a ramas conocimiento. y asumió que la palabra ya existía por su analogía con mecánica.en 1922. Asimov añadió la ley de Cero: "Ningún robot causará daño a la humanidad ni permitirá. 442 . los robots poseen una identidad propia. En televisión. así como las consecuencias por su tratamiento. el principio del relato breve ¡Mentiroso! de 1941 contiene el primer uso registrado de la palabra robótica. Terminator de James Cameron. Más tarde.U. o las dos películas basadas en los relatos de Isaac Asimov. Existen muchas películas sobre robots.R.

Dicha controversia ha abarcado el 443 8. Dell. por otro lado.conflictos que se podrían dar entre estas leyes. así como de sí mismo. así como la calidad de los productos ofrecidos._ El impacto de los robots en el plano laboral Muchas grandes empresas. así como un mayor ahorro de recursos. ha suscitado y mantenido inquietudes entre diversos grupos por su impacto en la tasa de empleos disponibles. Entender y aplicar lo anteriormente expuesto requeriría verdadera inteligencia y consciencia del medio circundante. han implementado en sus líneas de producción unidades robóticas para desempeñar tareas que por lo general hubiesen desempeñado trabajadores de carne y hueso en épocas anteriores. al disponer de máquinas que pueden desempeñar las funciones de cierta cantidad de empleados a un costo relativamente menor y con un grado mayor de eficiencia._ Cuestiones éticas Existe la preocupación de que los robots puedan desplazar o competir con los humanos. Actualmente. mejorando notablemente el rendimiento general y las ganancias de la empresa. algo que a pesar de los grandes avances tecnológicos de la era moderna no se ha alcanzado. han estimulado las investigaciones macroeconómicas de este tipo de competencia. por parte del robot. Esto ha causado una agilización en los procesos realizados. Pero. como Intel. dado que los robots no tienen capacidad para comprender su significado. 9. evaluar las situaciones de riesgo tanto para los humanos como para ellos mismos o resolver los . notablemente construido por Alessandro Acquisti basándose en un trabajo anterior de John von Neumann. así como su repercusión directa en las personas desplazadas. General Motors. no es posible aplicar las Tres leyes de la robótica. Sony. Las leyes o reglas que pudieran o debieran ser aplicadas a los robots u otros “entes autónomos” en cooperación o competencia con humanos si algún día se logra alcanzar la tecnología suficiente como para hacerlos inteligentes y conscientes de sí mismos.

art. la cibernética es igualmente aplicable a los sistemas físicos y sociales. computer art e infoarte. la computadora digital sustituyo la analógica en la elaboración de imágenes electrónicas. Debido a esto se ha llamado la atención sobre la ética en el diseño y construcción de los robots. luego. que las primeras experiencias donde la tecnología informática puesta al servicio de la comunidad funcionó 444 . nacida hacia 1948 e impulsada inicialmente por Norbert Wiener que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general” En 1950. en términos técnicos. en 1964) así como los lenguajes de programación. se remontan al año 1994. De todas formas se puede establecer._ Cibernética La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores. En esos años aparecen la segunda generación de computadoras (con transistores en 1960) concretándose por entonces los 1° dibujos y gráficos de computadora. y la tercera (con circuitos integrados. 10. Míchigan. en la segunda mitad del siglo XX. un matemático de Iowa. el 21 de julio de 1984 donde un robot aplastó a un trabajador contra una barra de protección en la que aparentemente fue la primera muerte relacionada con un robot en los EE. Historia La cibernética es una ciencia. se centra en funciones de control y comunicación: ambos fenómenos externos e internos del/al sistema. Ben Laposky. creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y. UU. Tanto en sus orígenes como en su evolución. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Los sistemas complejos afectan y luego se adaptan a su ambiente externo. Especial atención se presta a la retroalimentación y sus conceptos derivados. La cibernética dio gran impulso a la teoría de la información a mediados de los 60.aspecto de la seguridad. Las primeras experiencias de lo que luego se llamaría net. es importante aclarar que ya por los 1960 existían algunas antecedentes. así como la necesidad de contar con lineamientos claros de seguridad que garanticen una correcta interacción entre humanos y máquinas. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. llamando la atención de casos como el ocurrido en Jackson.

• 12._ Cibernética y robótica Mucha gente asocia la cibernética con la robótica. ya que para esto se debería conocer el sistema nervioso perfectamente. Etimológicamente "androide" se refiere a los robots humanoides de fisionomía masculina. • Un conocimiento mayor de como funcionan los sistemas complejos pudiera llevar a la solución de problemas también complejos como la criminalidad en las grandes ciudades • 11. la cibernética brinda un gran aporte al campo medicinal. Ciertas aplicaciones de la cibernética pueden presentar algunas desventajas por ejemplo: La creación de máquinas complejas que reemplacen a los trabajadores provocaría un recorte de personal. a los robots 445 . la cibernética trata acerca de sistemas de control basados en la retroalimentación. pero desde un punto de vista estrictamente científico. Además. Algunas ventajas son: La reducción de las jornadas laborales.. los robots y el concepto de cyborg debido al uso que se le ha dado en algunas obras de ciencia ficción. imita algunos aspectos de su conducta de manera autónoma. Es un término mencionado por primera vez por Alberto Magno en 1270 y popularizado por el autor francés Auguste Villiers en su novela de 1886 L'Ève future.como soporte estético trascurren por aquellos años y rompe con la idea de lectura lineal de la obra. los trabajos complejos o rutinarios pasarían a ser de las máquinas. • Es una tecnología muy potente pero su gran limitación es encontrar la relación máquinasistema nervioso._ Androide • Androide es la denominación que se le da a un robot antropomorfo que. además de imitar la apariencia humana.. • En un futuro ya no se ocuparía personal "viejo" y contratarían técnicos jóvenes para el mantenimiento de las máquinas.

Entusiasmo porque un robot humanoide puede tener enormes ventajas para cierta clase de funciones. y el primero de los cuales no es necesariamente el monstruo de Frankenstein de Mary Shelley. llegó a narrar como en ocasiones llegaba a sentirse incómodo frente a una de sus creaciones. De hecho es tan notorio este fenómeno. que el reconocido experto en inteligencia artificial Marvin Minsky. aunque en el lenguaje coloquial el término androide suele usarse para ambos casos. como en capacidad mental e iniciativa. En la cultura occidental la criatura humanoide. no es visto por el público como un verdadero androide. y aceptan por lo tanto con menos problemas la idea que un robot tenga apariencia humana. ya se ha demostrado con ejemplos que la 446 . En otras culturas las reacciones pueden ser bastante diferentes. escepticismo debido a que para que una máquina robótica sea útil. para poder así interactuar más fácilmente con seres humanos. principalmente en las obras de ciencia ficción.de apariencia femenina se les llama ocasionalmente ginoides. El androide siempre ha sido representado como una entidad que imita al ser humano tanto en apariencia. Bien que dicho monstruo sea fácilmente el más famoso. donde el público no teme la antropomorfización de las máquinas. la mayoría de las personas asocian la idea de robot con la de androide. es con bastante frecuencia un monstruo que se rebela contra su creador y en ocasiones lo destruye como castigo por su hubris. debido a su extrema popularidad como cliché de la ciencia ficción. Un robot sabio. La actitud de base entre el público frente a los androides varía en función del bagaje cultural que posea dicho público. cuando éste presentaba conductas inesperadas. Antes incluso de haber visto un verdadero robot en acción. Androides en la cultura popular Robot ASIMO de Honda. sino como una simple marioneta animatrónica. fabricada casi siempre por un Androides en la ciencia En la robótica la actitud de los expertos hacia los autómatas humanoides ha vacilado entre el entusiasmo y el escepticismo. el androide Cog. Un ejemplo meritorio es la actitud japonesa faz a los androides. humanoide que se limita a imitar los actos y gestos de un controlador humano.

que es capaz de marchar en dos pies. aunque ya existen varios ejemplos bastante meritorios en ese sentido.forma humana no es necesaria. Un ejemplo conocido en este sentido. 447 . más específicamente. Por lo tanto. 13. Para explicar la definición anterior. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje. y entiéndase a la [racionalidad] como la característica que posee una elección de ser correcta. entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas). de subir y bajar escaleras y de otra serie de proezas de locomoción bípeda. La construcción de un robot que imite convincentemente aunque sea una parte ínfima de la libertad de gestos y movimiento humanos. basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura. es una tarea de una enorme complejidad técnica. de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina)._ Inteligencia artificial Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación1 2 3 dedicada al desarrollo de agentes racionales no vivos. es un problema que en varias instancias está todavía abierto a la investigación y a la mejora. y a veces es incluso un estorbo (respecto a las capacidades actuales de los androides). Existen distintos tipos de conocimiento y medios de representación del conocimiento. de robots humanoides que imitan ciertas conductas y capacidades humanas. De hecho. procesar tales percepciones y actuar en su entorno (proporcionar salidas). y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada. es el robot Asimo de Honda.

los cinco principales tipos de procesos son: Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos). juegos de estrategia como ajedrez de computador y otros videojuegos. • Smart process management: facilita la toma de decisiones • También existen distintos tipos de percepciones y acciones. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas: Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y aparte que son muy importantes requieren de un buen funcionamiento. que determinan el tipo de agente inteligente. Escuelas de pensamiento La IA se divide en dos escuelas de pensamiento: La inteligencia artificial convencional • La inteligencia computacional • Inteligencia convencional artificial Se conoce también como IA simbólico-deductiva. y se ha usado en gran variedad de aplicaciones de software. pueden ser obtenidas y producidas. • Redes bayesianas: Propone soluciones mediante inferencia estadística. reconocimiento de escritura. • Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden autoregularse y controlarse para mejorar. • Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones. • Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles. Varios ejemplos se encuentran en el área de control de sistemas. la habilidad de responder a diagnósticos y a consultas de los consumidores. ingeniería y la milicia. reconocimiento del habla y reconocimiento de patrones. planificación automática. De más simples a más complejos. • Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos). medicina. tanto como por entradas y salidas de bits de un software y su entorno software.También se distinguen varios tipos de procesos válidos para obtener resultados racionales. pulsos eléctricos u ópticos en computadoras. • parte de la rutina en campos como economía. • Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano). Los sistemas de IA actualmente son 448 . respectivamente por sensores físicos y sensores mecánicos en máquinas. • Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).

Las Redes Neuronales son una rama de la inteligencia computacional muy relacionada con el aprendizaje automático. • En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido. pero muy a menudo aporta una vista complementaria. y Ktesibios de Alejandría (250 a. adaptación. inteligentes.complejas. tratando de no confiar en algoritmos heurísticos tan habituales en la Inteligencia Artificial más tradicional. La Inteligencia Computacional combina elementos de aprendizaje. el IPL11. Se presenta como una alternativa a la GOFAI ("Good Old-Fashioned Artificial Intelligence"). También se relaciona con técnicas como los Fractales. C. Aristóteles (384-322 a. evolución y Lógica difusa para crear programas que son. el cual era capaz de demostrar teoremas matemáticos. un regulador del flujo de agua (racional pero sin razonamiento). desarrollan el primer lenguaje de programación orientado a la resolución de problemas. antes de Cristo. • En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial. Allen Newell y J. a partir de lo cual la ciencia ha pasado por diversas situaciones. Inteligencia computacional Inteligencia Computacional (IC) centrada en el estudio de mecanismos adaptativos para permitir el comportamiento inteligente de sistemas complejos y cambiantes. Swarm Intelligence. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales. el cual se considera el primer trabajo del campo. Computación Evolutiva. • En 1956 fue inventado el término inteligencia artificial por John McCarthy. Shaw. Un año más tarde desarrollan el LogicTheorist. Sistemas Inmunes Artificiales o Sistemas difusos. Historia Las ideas más básicas se remontan a los griegos. Teoría del Caos. C. en cierta manera. proponiendo una solución a un determinado problema al igual que lo haría un especialista en la actividad.) construyó la primera máquina autocontrolada. Marvin Minsky y • 449 . La investigación en Inteligencia Computacional no rechaza los métodos estadísticos. • En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales. etc. Wavelets.C. aun cuando todavía no existía el término. • En 1955 Herbert Simon. Dentro de la Inteligencia Computacional podemos encontrar técnicas como las Redes Neuronales.

ABRL. • Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU. • En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS). Lindsay desarrolla «Sad Sam». • En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA. • En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT). • En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento. • 450 . PIP. LISP fue el primer lenguaje para procesamiento simbólico. • En 1968 Minsky publica Semantic Information Processing. que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas. GPS era un sistema orientado a la resolución de problemas. • A fines de los 50 y comienzos de la década del 60 Robert K. MACSYMA. • En 1974 Edward Shortliffe escribe su tesis con MYCIN. Por ejemplo DENDRAL. INTERNIST/CADUCEUS. • En 1959 Rosenblatt introduce el Perceptrón. o scripts. que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. • En 1968 Seymour Papert. el primer Sistema Experto. que predicen la probabilidad de una solución bajo un set de condiciones. Su nombre se deriva de LISt Processor. como MYCIN: R1/XCON.Claude Shannon en la Conferencia de Dartmouth. el LISP. uno de los Sistemas Expertos más conocidos. un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación. PUFF. • En 1973 Shank y Abelson desarrollan los guiones. iniciado en 1965 por Buchanan. Feigenbaum y Lederberg. Danny Bobrow y Wally Feurzeig. • En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980. • En las décadas de 1970 y 1980. Bobrow desarrolla STUDENT. CASNET. creció el uso de sistemas expertos. aparecen los sistemas expertos. pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general. desarrollan el lenguaje de programación LOGO. A mediados de los años 60. lo que provocó el abandono casi total de las investigaciones durante quince años. que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques. que asistía a químicos en estructuras químicas complejas euclidianas. etc. un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron. • En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra.

EXPERT. • En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial . campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue. Gran parte de esta ciencia se junta con temas en la filosofía de la mente. Por ejemplo: ¿En qué consiste la inteligencia? ¿Cómo la reconoceríamos en un objeto no humano. • Como anécdota. • En 1997 Garry Kasparov. • En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras. por ejemplo. Fundamentos y filosofía Como ocurre casi siempre en el caso de una ciencia recién creada. • En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales). así como un lenguaje científico para expresar 451 . la inteligencia artificial aborda tantas cuestiones confundibles en un nivel fundamental y conceptual que.Algunos permanecen hasta hoy (shells) como EMYCIN. de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas». adjunto a lo científico. ¿debemos hacerlo? • Durante más de 2000 años de tradición en filosofía. posea una inteligencia comparable a la humana? • Aunque una criatura no orgánica pudiera solucionar problemas de la misma manera que un humano. La psicología ofrece herramientas que permiten la investigación de la mente humana. han ido surgiendo diversas teorías del razonamiento y del aprendizaje. • En 1988 se establecen los lenguajes Orientados a Objetos. simultáneamente con el punto de vista de que la mente se reduce al funcionamiento físico. muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute. ¿tendría o podría tener conciencia y emociones? • Suponiendo que podemos hacer robots con una inteligencia comparable a la nuestra. pero hay ciertos temas particulares a la IA. computador o cerebro». OPSS. • Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa. si la tuviera? • ¿Qué sustancia y organización se requiere? ¿Es posible que una criatura hecha de metal. es necesario hacer consideraciones desde el punto de vista de la filosofía. • En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas.Campus Multidisciplinar en Percepción e Inteligencia 2006.

astronomía y diversas ramas de la filosofía. Nadie podría pronosticar con toda precisión lo que se podría esperar en el futuro. predecir y manipular un mundo que en tamaño y complejidad lo excede con 452 . y con lo que aprendió de Sócrates. con cuyas obras se introdujeron en Europa los números arábigos y el álgebra (de su nombre al-Jwarizmi deriva la palabra algoritmo). matemática. La lingüística ofrece teorías para la estructura y significado del lenguaje. La idea de expresar un cálculo mediante un algoritmo formal se remonta a la época de Jwarizmi. El problema que aborda la inteligencia artificial es uno de los más complejos: ¿Cómo es posible que un diminuto y lento cerebro. C. que también se ocupan de la inteligencia. la lógica y la probabilidad. matemático árabe del siglo IX.. La temática de su obra fue muy diversa: política. El filósofo Hubet Dreyfus (1979) afirma que: Bien podría afirmarse que la historia de la inteligencia artificial comienza en el año 450 a. es evidente que las computadoras que posean una inteligencia a nivel humano tendrán repercusiones muy importantes en nuestra vida diaria así como en el devenir de la civilización. Otra razón por la cual se estudia la inteligencia artificial es debido a que ha sido posible crear sorprendentes y diversos productos de trascendencia. A diferencia de la filosofía y de la psicología.» Los filósofos delimitaron las más importantes ideas relacionadas con la inteligencia artificial.. así como la ciencia de la computación. los esfuerzos de la inteligencia artificial están encaminados tanto a la construcción de entidades como a su compresión.. Una de las razones de su estudio es el aprender más de nosotros mismos. de la que se toman las herramientas que permiten que la Inteligencia Artificial sea una realidad. El hombre se ha aplicado a sí mismo el nombre científico de Homo sapiens como una valoración de la trascendencia de nuestras habilidades mentales tanto para nuestra vida cotidiana como para nuestro propio sentido de identidad. comprender. Empezó con el nacimiento de Platón en 428 a. tenga capacidad de percibir.las teorías que se van obteniendo. Los esfuerzos del campo de la inteligencia artificial se enfocan en lograr la compresión de entidades inteligentes. sea biológico o electrónico. cuando Platón cita un diálogo en el que Sócrates le pregunta a Eutidemo: «Desearía saber cuál es la característica de la piedad que hace que una acción se pueda considerar como pía.C. pero para pasar de allí a una ciencia formal era necesario contar con una formalización matemática en tres áreas principales: la computación. física. y así la observe y me sirva de norma para juzgar tus acciones y las de otros.

y no su cuerpo. el investigador del campo de la inteligencia artificial cuenta con pruebas contundentes de que tal búsqueda es totalmente factible. al menos potencialmente. Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird. podríamos englobar a esta ciencia como la encargada de imitar una persona. aplicando la definición de Inteligencia Artificial. existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente. Particularmente para los robots móviles. 2001. Contextualizando. que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté demasiado bajo. pero a diferencia de la investigación en torno al desplazamiento mayor que la velocidad de la luz o de un dispositivo antigravitatorio. hay que saber que ya existen sistemas inteligentes. . Aunque. sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor. tomando como base el cerebro y su funcionamiento. que «obstaculizan» encontrar la mejor solución a un problema dado. muchos de ellos consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado. a fin de evitar las torpezas de funcionamiento como. Incluso se podría introducir el «dolor» o el «sufrimiento físico». es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo– qué hacer a continuación [Pinker. A veces. Así. p. podrán actuar de acuerdo con sus «intenciones» [Mazlish. sino imitar al cerebro. en todas sus funciones. por 453 El concepto de IA es aún demasiado difuso. 1993. se podría equipar a un robot con dispositivos que controlen su medio interno. 1995. y teniendo en cuenta un punto de vista científico. 359]. Capaces de tomar decisiones «acertadas». 481]. a fin de aumentar la eficacia de los sistemas inteligentes. por el momento. 318]. p. la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional. de manera tal que se pueda alcanzar cierto razonamiento creando marionetas robóticas.creces?. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas. «motivaciones». Al tener «sentimientos» y. La inteligencia sentimientos artificial y los En esta línea. p. por ejemplo. La inteligencia artificial permite al hombre emular en las máquinas el comportamiento humano. se piensa en máquinas inteligentes sin sentimientos.

especialmente ante problemas complejos y peligrosos. nocicepción. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria y los aspectos aprendidos el saber 454 .. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución. lo cual le provocaría daños irreparables. una asignación de metas o motivación. Un sistema de inteligencia artificial debería resolver problemas.. interocepción. for. o la cantidad de memoria disponible para una operación determinada. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos. lo racional y lo emocional están de tal manera interrelacionados entre sí. y autores como Howard Gardner han propuesto que existen inteligencias múltiples. introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta. por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do. por ejemplo en el cambio de dirección y velocidad autónomo de un misil. La retroalimentación en sistemas está particularmente desarrollada en cibernética. En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Críticas Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar por completo a un ser humano. Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos. etcétera. En síntesis. Los sistemas inteligentes. al combinar una memoria durable. que se podría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto– complementarios. A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar.ejemplo. logran un comportamiento en extremo eficiente. igual que sucede con los humanos que disponen de propiocepción.

y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. ya que actuar de acuerdo con un programa preestablecido sería suficiente. Esto se debe al problema del consenso entre especialistas en la definición de 455 .resolver un problema matemático mediante el algoritmo adecuado. debe conocer los distintos significados para poder interpretar. o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza. Esto demostraría que la máquina en realidad no está pensando. Otros experimentos mentales como la Habitación china de John Searle han mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo. Sin embargo. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas. Un humano durante toda su vida aprende el vocabulario de su lengua nativa. los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas. esta situación no es equivalente a un test de Turing. citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. y apareció ya en los inicios de los primeros sistemas operativos informáticos. Este obstáculo es debido a la ambigüedad del lenguaje. pasando el test de Turing sin siquiera entender lo que hace. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo. su sintaxis poco estructurada y los dialectos entre grupos. Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. la polisemia del lenguaje humano. Si para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. Searle considera posible lograr dicho efecto mediante reglas definidas a priori. Un humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver ambigüedades. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Un sistema de inteligencia artificial se enfrenta con el mismo problema. que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina. Sin embargo. Muchas personas consideran que el test de Turing ha sido superado. Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas.

los conceptos involucrados y en los procedimientos y técnicas a utilizar. cobre o cualquier otro material fácil de moldear. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. En sus inicios los autómatas eran realizados con materiales fáciles de encontrar. creación. es lograr una adaptación de los alumnos a los procesos productivos actuales. Zaccagnini Sancho. • Médicas • Mundos virtuales • Procesamiento de lenguaje natural (Natural Language Processing) • Robótica • Sistemas de apoyo a la decisión • Videojuegos • Prototipos informáticos • Análisis de sistemas dinámicos. la psicopatología y cómo proceder ante cierto diagnóstico. las cuales son construidas con diferentes tipos de materiales y controladas por un sistema computacional. en donde la Automatización (Tecnología que está relacionada con el empleo de sistemas mecánicos. en la operación y control de la producción) juega un rol muy 456 Aplicaciones artificial • • de la inteligencia Lingüística computacional Minería de datos (Data Mining) • Industriales. en psicología se discuten los conceptos. en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. la etiología. en el cual participan las personas que tienen motivación por el diseño y construcción de creaciones propias (objeto que posee caraceristicas similares a las de la vida humana o animal). electrónicos y basados en computadoras. El objetivo de la enseñanza de la Robótica. Éstas creaciones se dan en primera instancia de forma mental y posteriormente en forma física._ Robótica Educativa La 'Robótica Educativa' es un medio de aprendizaje. • Smart process management . A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales. ensamble y puesta en funcionamiento de robots. ya sea con madera. Sin embargo. Definición Es el conjunto de actividades pedagógicas que apoyan y fortalecen áreas específicas del conocimiento y desarrollan competencias en el alumno. a través de la concepción. 1994). 14. los que son llamados prototipos o simulaciones. Por ejemplo.

Multiplo o Robo-Ed . por ejemplo). pero no es así. • Ser más responsables con sus cosas. permitiendo a las personas socializar. pueden ser desde piezas de sistemas constructivos como Lego . Así mismo hacer que el niño logre una organización en grupo. es la gran necesidad de una perfecta relación entre el Software y el Hardware del Robot. las cuales son específicas para realizar pequeñas tareas (como traer objetos o limpiar cosas. • Desarrollar la habiliadad en grupo. se hace en programas especiales como el xLogo (usando en verdad.1 a materiales de desecho que no se ocupan en casa (como cajas de cartón y circuitos en desuso). donde el equivocarse es parte del aprendizaje y el autodescubrimiento. respetar cada uno su turno para exponer y aprender a trabajar en equipo. Objetivos Que sean más ordenados. Aquí. • Desarrollar mayor movilidad en sus manos. eliminando y arreglando. Origen La Robótica Educativa se centra principalmente en la creación de un robot con el único fin de desarrollar de manera mucho más práctica y didáctica las habilidades motoras y cognitivas de quienes los usan. De esta manera se pretende estimular el interés por las ciencias duras y motivar la actividad sana. se utilizan variados materiales. Promover los experimentos. • Desarrollar sus conocimientos. y se observa en la pantalla el cómo se ve este robot. En este punto. también se usan materiales más de clase como son metales u otros derivados. donde se realiza un pequeño estudio que ve si éste robot es realizable o no en la realidad. al tenerlo en el computador se establece la función que cumplirá éste robot. discusiones que permitan desarrollar habilidades sociales. una versión libre de éste). Aunque. Sin embargo la robótica se considera un sistema que va más allá de una aplicación laboral. Luego. ya que los movimientos que realizará éste Robot es un acoplamiento entre lo físico y lo lógico. • Desarrollar sus capacidades creativas. porque en la Robótica Educativa se pretende inicialmente crear un 457 . Algo que también cabe mencionar en el estudio de la Robótica. se procede a utilizar materiales para llevarlo a cabo en la realidad. robot en computador. • • Fases Se tiene la idea de que se construye un robot utilizando cables y equipo para hacerlo en la vida real.importante.

Habitualmente se evolucionan Redes Neuronales ya que se sigue el referente biológico y simplifica el diseño y la representación en el algoritmo genético. 15. Floreano y Mondada en la EPFL da Lausanne y el grupo de COGS informaron de los primeros experimentos de evolución artificial de robots autónomos.Poder observar cada deatalle. a menudo simultáneos. Historia con valor La fundación de la RE está relacionada con trabajos en el CNR de Roma en los 90. ha orientado la atención al lado teórico de la disciplina abandonando el punto de vista de la ingeniería. La Filosofía de la Ciencia puede 458 . • Desarrollar el aprendizaje en forma divertida. al igual que en la aproximación simbólica._ Robótica evolutiva La Robótica Evolutiva (RE) es un área de la Robótica Autónoma en la que se desarrollan los controladores de los robots mediante la evolución al usar Algoritmos Genéticos. En 1992 y 1993 dos equipos. pero la idea inicial de codificar el sistema de control de un robot en un genoma y evolucionarlo data de finales de los años 80. la dificultad de crecimiento de la complejidad de las tareas. La Biología y otras ciencias de lo vivo obtienen simulaciones que reproducen fenómenos desde fisiológicos hasta ecológicos. Últimamente. • analizar sistemas epistémico. Cliff. El éxito inicial de esta incipiente investigación lanzó una gran actividad que intentaba delimitar el potencial de esta aproximación al problema. Harvey y Husbands de COGS en la Universidad de Sussex introdujeron el término robótica evolutiva en el año 1993. El punto de vista de la ingeniería crea controladores de robots para realizar tareas útiles en el mundo real. La Robótica Evolutiva tiene varios objetivos.

Para ello el robot debe percibir su entorno y actuar de forma adecuada. además de llevar a cabo su tarea. Esto ocurre cuando el robot es móvil y debe tener información de su posición en el mapa interno. los Cowbots. por ejemplo._ Robótica autónoma La Robótica Autónoma es el área de la Robótica que desarrolla robots capaces de desplazarse y actuar sin intervención humana. El laberinto puede estar hecho con paredes delimitadoras de los caminos posibles. por lo que se toman caminos en los que no se usa la Inteligencia Artificial clásica. o puede incluir.16. • Laberinto Existen distintas variantes de la competición de laberinto. Tipos de competición Actualmente existen varias clases de competiciones. Conforme decrece el grado de estructuración del entorno las tareas se tornan más complejas. • Rastreo de línea En esta competición. respectivamente. o en planteamientos conexionistas usando redes neuronales. el laberinto._ Competiciones de robots Una competición de robótica es un evento donde robots diseñados.1 17. además. • Cowbots 459 . con un control centralizado. La prueba puede consistir en recorrer un laberinto y encontrar la salida. en los que el controlador del robot puede tener un mapa detallado de su entorno. La Robótica ha tenido grandes avances en entornos estructurados. La complejidad del recorrido puede variar. o dibujado en el suelo con una línea. siendo las más populares en varios países el rastreo de línea. En entornos no estructurados la solución a través de mapa no es viable. la lucha Sumo y las carreras de bípedos. la prueba adicional de que el robot debe hallar y sacar del laberinto uno o más objetos ubicados en distintos puntos del mismo. La disciplina que usa Algoritmos Genéticos para evolucionar Redes Neuronales se denomina Robótica Evolutiva. construidos o programados por diferentes participantes compiten según un conjunto determinado de reglas. sino la Inteligencia Artificial basada en Multiagentes (originaria en el trabajo de Rodney Brooks y su arquitectura de subsunción). los robots participantes deben seguir una línea trazada en el suelo en el menor tiempo posible. Los mecanismos pueden ser absolutos o relativos. usando GPS y odometría.

dos robots se enfrentan en una arena de combate de una medida previamente conocida. los 460 Carrera de bípedos Mientras que en las competencias mencionadas anteriormente los robot tienen una estructura vehicular. El arma a distancia consiste en un lanzador de algún tipo de proyectil.7%.En esta prueba. por lo general muy liviano. Esta ropa deportiva especializada utiliza el tejido de ultima generación Ionised Energy Fabrics (TM). Este proceso facilita el suministro de oxígeno a los músculos desde la sangre. • Ropa deportiva Canterbury of New Zealand está preparada para revolucionar el mercado de ropa técnica deportiva con el lanzamiento de IonX(TM) una gama de prendas de alto rendimiento diseñadas para aumentar la competitividad de los deportistas. La ionización es un proceso natural que se produce a causa de una carga positiva o negativa de los átomos. y acelera la recuperación muscular. Ambos robots tienen un arma a distancia y un arma para combate cuerpo a cuerpo. en la carrera de bípedos se enfrentan robots cuyo movimiento utiliza dos extremidades inferiores (análogas a las extremidades inferiores de los animales bípedos).FRBB Sumo En este estilo de competición. la idea es que ambos intentan sacarse mutuamente de esta zona. o por su arma de lucha directa. que no cause daños a su objetivo. Los dos robots deben enfrentarse en la zona de combate hasta que uno de los dos es alcanzado por un proyectil del otro. . • Principales existentes • • • • • • • • • competiciones Robocup Hispabot European Land-Robot Trial Alcabot Eurobot FIRST Robolid Cosmobot Competencia Argentina de Sumo UTN .que ioniza al cuerpo mediante un campo electromagnético de carga negativa. siendo el ganador el robot que atraviese el recorrido definido primero. lo cual a su vez aumenta el rendimiento media en un 2.dos robots se enfrentan dentro de una zona delimitada. por ejemplo durante las tormentas eléctricas o cerca de las cascadas de agua. En contacto con la piel. Los robots compiten en una línea recta.

en los aparatos que se utilizan y en un sin número de cosas más. y las prendas IonX(TM) representan. la primera vez que un producto textil ha afectado de forma tan directa y tangible los niveles de rendimiento y recuperación". al eliminar residuos como el ácido láctico de forma más eficaz. Prof Mike Caine..D. en la salud. La gama IonX(TM) no sólo marca un momento clave para Canterbury. aunque ya está claro que estas prendas pueden llegar a aportar unos beneficios valiosas para el rendimiento de los atletas durante el entrenamiento y la competición. Esto ayuda a incrementar la potencia media del deportista y a la vez mejorar la velocidad y la fuerza." La tecnología dri-fit Hemos visto a través del tiempo que la tecnología está presente hoy en todas las áreas. sino también para el mercado de ropa técnica deportiva en general. Por ejemplo en las carreras organizadas..tejidos Ionised Energy Fabrics ofrecen dos ventajas fundamentales: mayor rendimiento durante la actividad y un periodo de recuperación más corto. La mayor tasa de transferencia de oxígeno desde la sangre a los músculos también beneficia al sistema de energía anaeróbica del cuerpo. lo cual genera más energía en los músculos. además. La rápida recuperación permite reanudar antes los periodos de entrenamiento o competición. Ph. Director del Instituto de Tecnología Deportiva de la Universidad de Loughborough. Consejero Delegado de Canterbury of New Zealand comenta: "En Canterbury nos sentimos orgullosos de las prendas futuristas y tecnológicamente avanzadas que desarrollamos. tanto de México como en el resto del mundo. Con el tiempo y más estudios se debe poder comprender cómo maximizar las posibilidades de IonX(TM). Reino Unido. Joe Middleton. en los deportes y en la vida diaria sin duda. B. dijo: "Los resultados preliminares de un estudio realizado por un equipo de Tecnología Deportiva en la Universidad de Loughborough indican que los deportistas que llevan prendas tratadas con IonX demuestran mayor nivel de rendimiento y de fuerza durante periodos cortos y repetidos de máximo esfuerzo. en la informática.Sc. En la cuestión deportiva encontramos la tecnolo