Está en la página 1de 3

Hola de nuevo.

En este video, vamos a aprender cómo enormes dispositivos como la


máquina analítica crecieron —en realidad, se encogieron— hasta tomar la forma de
los dispositivos que usamos hoy. El desarrollo de la computación ha crecido
constantemente desde la invención de la máquina analítica, pero no dio un gran
salto hacia adelante hasta la Segunda Guerra Mundial. En aquel entonces, la
investigación en computación era muy costosa, los componentes electrónicos eran
enormes y se necesitaban muchos de ellos para calcular cualquier cosa de valor.
Esto también implicaba que las computadoras ocupaban un montón de espacio y muchas
iniciativas no contaron con financiación suficiente y no pudieron avanzar. Cuando
estalló la guerra, los gobiernos empezaron a invertir dinero y recursos en
investigación informática. Querían ayudar a desarrollar tecnologías que les dieran
ventaja sobre otros países. Se hicieron muchos esfuerzos y se lograron avances en
campos como la criptografía. La criptografía es el arte de escribir y resolver
códigos. Durante la guerra, las computadoras se usaron para procesar mensajes
secretos de los enemigos más rápido de lo que un humano podría esperar hacerlo. Hoy
en día, el papel que desempeña la criptografía en la comunicación segura es un
componente crítico de la seguridad informática, de la que aprenderemos más en un
curso posterior. Por ahora, veamos cómo las computadoras comenzaron a tener un
impacto espectacular en la sociedad. En primer lugar está Alan Turing, un
matemático inglés y ahora famoso informático. Ayudó a desarrollar la máquina
ultrasecreta Enigma que permitió que los Aliados decodificaran mensajes de acceso
durante la Segunda Guerra Mundial. La máquina Enigma es solo uno de los ejemplos de
cómo los gobiernos empezaron a reconocer el potencial de la computación. Después de
la guerra, empresas como IBM, Hewlett-Packard y otras potenciaban sus tecnologías
hacia el campo académico, el de los negocios y el gubernamental. Se hicieron muchos
avances tecnológicos y de computación en el siglo XX gracias al interés directo de
los gobiernos, los científicos y las empresas que sobrevivieron a la Segunda Guerra
Mundial. Estas organizaciones inventaron nuevos métodos para almacenar datos en
computadoras, lo que promovió el crecimiento de la potencia de procesamiento. Ten
en cuenta que, hasta la década del 50, las tarjetas perforadas eran una forma
popular de almacenar datos. Los operadores tenían pilas de tarjetas perforadas
ordenadas que se usaban para el procesamiento de datos. Si la pila se volcaba por
accidente y las cartas se desordenaban, era casi imposible volver a ordenarlas.
Obviamente, las tarjetas perforadas tenían ciertas limitaciones, pero gracias a las
nuevas innovaciones tecnológicas como la cinta magnética y sus equivalentes, la
gente comenzó a almacenar más datos en medios más confiables. Una cinta magnética
funcionaba magnetizando datos en una cinta. En los años 70 y 80, la gente solía
escuchar música en discos de vinilo o cintas de casete. Estas reliquias son
ejemplos de cómo las cintas magnéticas pueden almacenar información y ejecutarla
desde una máquina. Esto dejó en el olvido pilas y pilas de tarjetas perforadas
mientras que sus nuevos equivalentes, las cintas magnéticas, comenzaron a
revolucionar la industria. No bromeaba cuando dije que las primeras computadoras
ocupaban mucho espacio. Tenían máquinas enormes para leer datos y bastidores de
válvulas de vacío que ayudaban a moverlos. Estas válvulas controlan los voltajes de
electricidad y todo tipo de equipos electrónicos como televisores y radios. Pero
estas válvulas de vacío específicas eran voluminosas y se rompían todo el tiempo.
Imagine cómo era el trabajo de un especialista en soporte de TI en aquellos
primeros días de la computación. La descripción del trabajo podría haber incluido
enormes máquinas llenas de polvo y objetos espeluznantes, o reemplazar válvulas y
cambiar esas tarjetas perforadas. En aquellos días, hacer un poco de depuración
podría haber tomado un sentido más literal. La almiranta Grace Hopper, renombrada
científica informática, tenía una historia favorita que involucraba a algunos
ingenieros que trabajaban en la computadora Harvard Mark II. Trataban de averiguar
la causa de los problemas en un relé. Después de investigar un poco, descubrieron
que la fuente de su problema era una polilla, literalmente, un bicho ("bug") en la
computadora. La ENIAC fue una de las primeras formas de computadoras de uso
general. Era una circunvolución de enormes componentes electrónicos y cables, de
pared a pared. Tenía 17,000 válvulas de vacío y ocupaba aproximadamente 170 metros
cuadrados. Imagínese si hoy tuviera que trabajar con un equipo de ese tamaño. No
querría compartir una oficina con 170 metros cuadrados de maquinaria. Finalmente,
la industria comenzó a usar transistores para controlar los voltajes. Ahora, los
transistores son componentes fundamentales de todos los dispositivos electrónicos.
Realizan casi las mismas funciones que las válvulas de vacío, pero son más
compactos y más eficientes. Fácilmente, hoy puede haber miles de millones de
transistores en un pequeño chip de computadora. Con el paso de las décadas, se
hicieron más y más avances. La almiranta Grace Hopper inventó el primer compilador.
Los compiladores hicieron que fuera posible traducir el lenguaje humano, mediante
un lenguaje de programación, a código de máquina. Si no lo captó, hablaremos sobre
compiladores más adelante en este curso. La gran enseñanza es que este avance fue
un gran hito en la informática, que nos llevó a donde estamos hoy. Ahora, casi todo
el mundo puede aprender lenguajes de programación, en cualquier lugar. Ya no
tenemos que aprender a escribir código de máquina con unos y ceros. Podrás ver
estos lenguajes en acción en futuras lecciones, en las que escribirás código tú
mismo. Nota al margen: si pensar en eso te asusta, no se preocupes, te ayudaremos
en cada paso del camino. Pero por ahora, volvamos a la evolución de las
computadoras. Con el tiempo, la industria dio paso a las primeras unidades de disco
duro y a los microprocesadores. Entonces, el lenguaje de programación comenzó a
convertirse en la forma predominante con la que los ingenieros desarrollan
software. Las computadoras se hacían cada vez más pequeñas, gracias a los avances
en componentes electrónicos. En lugar de ocupar salas enteras, como la ENIAC, se
volvían lo suficientemente pequeñas como para caber en una mesa. Xerox Alto fue la
primera computadora parecida a los equipos con los que estamos familiarizados hoy
en día. También fue la primera computadora en implementar una interfaz gráfica de
usuario que usaba íconos, un mouse y una ventana. Algunos de ustedes pueden
recordar que el tamaño y el costo de las computadoras históricas hacían casi
imposible que una familia promedio tuviera una. En cambio, generalmente se las
encontraba en centros de investigación militares y universitarios. Cuando empresas
como Xerox comenzaron a construir máquinas a un precio relativamente asequible y
con un factor de forma más pequeño, se dio inicio a la era del usuario de la
informática. Luego, en los años 70, un joven ingeniero llamado Steve Wozniak
inventó la Apple I, una computadora de una sola placa para aficionados. Con su
amigo Steve Jobs, crearon una empresa llamada Apple Computer. El modelo siguiente a
la Apple I, la Apple II, estaba lista para el usuario promedio. La Apple II fue un
éxito fenomenal, se vendió durante casi dos décadas y permitió que una nueva
generación accediera a las computadoras personales. Por primera vez, las
computadoras fueron asequibles para la clase media y ayudaron a llevar la
tecnología informática al hogar y a la oficina. En los años 80, IBM presentó su
computadora personal. Fue lanzada con una versión primitiva de un sistema operativo
llamado MS DOS o Microsoft Disk Operating System. Nota al margen: los sistemas
operativos modernos ya no tienen texto, tienen hermosos íconos, palabras, e
imágenes como las que vemos en nuestros smartphones. Es increíble lo lejos que
hemos llegado desde el primer sistema operativo a los SO que usamos en la
actualidad. Volvamos a la PC de IBM. Se la adoptó ampliamente y se hizo más
accesible a los consumidores, gracias a una asociación con Microsoft. Microsoft,
fundada por Bill Gates, finalmente creó Microsoft Windows. Durante décadas fue el
sistema operativo preferido en el lugar de trabajo y dominó la industria de la
computación porque podía ejecutarse en cualquier hardware compatible. Con más
computadoras en el lugar de trabajo, la dependencia de TI aumentó, así como también
la demanda de trabajadores calificados que pudieran dar soporte a esa tecnología.
No solo las computadoras personales entraron al hogar por primera vez; también
surgía un nuevo tipo de computación: los videojuegos. Durante los años '70 y '80,
las máquinas de entretenimiento que funcionaban con monedas, llamadas arcade,
fueron cada vez más populares. Una empresa llamada Atari desarrolló, en 1972, uno
de los primeros arcades que funcionaba con monedas. Se llamaba Pong. Fue un éxito
tan rotundo que la gente hacía filas en bares y centros recreativos durante horas
para jugar. Las computadoras de entretenimiento como Pong inauguran la era de los
videojuegos. Con el tiempo, Atari lanzaría el sistema de computadora de video que
permite llevar las consolas de video personales al hogar. Los videojuegos han
contribuido a la evolución de las computadoras de una forma muy real; cuéntaselo a
la siguiente persona que los desestime como si fueran juguetes. Los videojuegos
demuestran que las computadoras no siempre debían ser puro trabajo y cero
diversión, también eran una gran fuente de entretenimiento. Este fue un hito
importante para la industria de la computación, ya que en ese entonces, las
computadoras se usaban principalmente en el lugar de
trabajo o en institutos de investigación. Con grandes actores en el mercado como
Apple Macintosh y Microsoft Windows dominando el espacio de los SO, un programador
llamado Richard Stallman comenzó a desarrollar un sistema operativo gratuito,
similar a Unix. Unix era un sistema operativo desarrollado por Ken Thompson y
Dennis Ritchie, pero no era barato ni estaba disponible para todos. Stallman creó
un SO que llamó GNU. Su intención era que fuese de uso gratuito, con una
funcionalidad similar a Unix. A diferencia de Windows o Macintosh, GNU no era
propiedad de una sola compañía, era de código abierto, lo que significaba que
cualquiera podía modificarlo y compartirlo. GNU no evolucionó en un SO completo,
pero sentó las bases para la creación de uno de los mayores SO de código abierto,
Linux, que fue creado por Linus Torvalds. Entraremos en los detalles técnicos de
Linux más adelante en este curso, pero debes saber que es un actor importante en
los sistemas operativos actuales. Como especialista de soporte de TI, es muy
probable que tú trabajes con software de código abierto. Tal vez ya estés usando
uno, como el navegador de internet Mozilla Firefox. A principios de los 90, las
computadoras comenzaron a ser aún más pequeñas. Entonces, un verdadero punto de
inflexión entró en escena: las PDA o asistentes digitales personales, que
permitieron que la computación se vuelva móvil. Estos dispositivos móviles incluían
reproductores de medios portátiles, procesadores de texto, clientes de correo
electrónico, navegadores de Internet, y mucho más, todo en un práctico dispositivo
portátil. A finales de los 90, Nokia presentó una PDA con funcionalidad de teléfono
móvil. Esto desató la industria de las computadoras portátiles o, como las
conocemos hoy, los smartphones. En pocas décadas, pasamos de tener computadoras que
pesaban toneladas y ocupaban cuartos enteros a tener computadoras poderosas que
caben en nuestros bolsillos. Es casi increíble, y es apenas el comienzo. Si estás
entrando en la industria de TI, es esencial que comprendas cómo brindar soporte a
la necesidad cada vez mayor de esta tecnología en constante cambio. El soporte
informático de hace 50 años consistía en cambiar válvulas de vacío y apilar
tarjetas perforadas, cosas que ya no existen en el mundo actual A medida que las
computadoras se vuelven más complejas y preponderantes, lo mismo ocurre con el
conocimiento que se necesita para su soporte y mantenimiento. En 10 años, el
soporte de TI podría requerir trabajar con lentes de realidad virtual, nunca se
sabe. ¿Quién sabe lo que nos depara el futuro? Pero este es un momento increíble
para estar a la vanguardia de esta industria. Ahora que sabemos de dónde vienen las
computadoras y cómo evolucionaron a lo largo de las décadas, vamos a tener una
mejor idea de cómo funcionan en verdad.

También podría gustarte