En este video, vamos a aprender cómo enormes dispositivos como la
máquina analítica crecieron —en realidad, se encogieron— hasta tomar la forma de los dispositivos que usamos hoy. El desarrollo de la computación ha crecido constantemente desde la invención de la máquina analítica, pero no dio un gran salto hacia adelante hasta la Segunda Guerra Mundial. En aquel entonces, la investigación en computación era muy costosa, los componentes electrónicos eran enormes y se necesitaban muchos de ellos para calcular cualquier cosa de valor. Esto también implicaba que las computadoras ocupaban un montón de espacio y muchas iniciativas no contaron con financiación suficiente y no pudieron avanzar. Cuando estalló la guerra, los gobiernos empezaron a invertir dinero y recursos en investigación informática. Querían ayudar a desarrollar tecnologías que les dieran ventaja sobre otros países. Se hicieron muchos esfuerzos y se lograron avances en campos como la criptografía. La criptografía es el arte de escribir y resolver códigos. Durante la guerra, las computadoras se usaron para procesar mensajes secretos de los enemigos más rápido de lo que un humano podría esperar hacerlo. Hoy en día, el papel que desempeña la criptografía en la comunicación segura es un componente crítico de la seguridad informática, de la que aprenderemos más en un curso posterior. Por ahora, veamos cómo las computadoras comenzaron a tener un impacto espectacular en la sociedad. En primer lugar está Alan Turing, un matemático inglés y ahora famoso informático. Ayudó a desarrollar la máquina ultrasecreta Enigma que permitió que los Aliados decodificaran mensajes de acceso durante la Segunda Guerra Mundial. La máquina Enigma es solo uno de los ejemplos de cómo los gobiernos empezaron a reconocer el potencial de la computación. Después de la guerra, empresas como IBM, Hewlett-Packard y otras potenciaban sus tecnologías hacia el campo académico, el de los negocios y el gubernamental. Se hicieron muchos avances tecnológicos y de computación en el siglo XX gracias al interés directo de los gobiernos, los científicos y las empresas que sobrevivieron a la Segunda Guerra Mundial. Estas organizaciones inventaron nuevos métodos para almacenar datos en computadoras, lo que promovió el crecimiento de la potencia de procesamiento. Ten en cuenta que, hasta la década del 50, las tarjetas perforadas eran una forma popular de almacenar datos. Los operadores tenían pilas de tarjetas perforadas ordenadas que se usaban para el procesamiento de datos. Si la pila se volcaba por accidente y las cartas se desordenaban, era casi imposible volver a ordenarlas. Obviamente, las tarjetas perforadas tenían ciertas limitaciones, pero gracias a las nuevas innovaciones tecnológicas como la cinta magnética y sus equivalentes, la gente comenzó a almacenar más datos en medios más confiables. Una cinta magnética funcionaba magnetizando datos en una cinta. En los años 70 y 80, la gente solía escuchar música en discos de vinilo o cintas de casete. Estas reliquias son ejemplos de cómo las cintas magnéticas pueden almacenar información y ejecutarla desde una máquina. Esto dejó en el olvido pilas y pilas de tarjetas perforadas mientras que sus nuevos equivalentes, las cintas magnéticas, comenzaron a revolucionar la industria. No bromeaba cuando dije que las primeras computadoras ocupaban mucho espacio. Tenían máquinas enormes para leer datos y bastidores de válvulas de vacío que ayudaban a moverlos. Estas válvulas controlan los voltajes de electricidad y todo tipo de equipos electrónicos como televisores y radios. Pero estas válvulas de vacío específicas eran voluminosas y se rompían todo el tiempo. Imagine cómo era el trabajo de un especialista en soporte de TI en aquellos primeros días de la computación. La descripción del trabajo podría haber incluido enormes máquinas llenas de polvo y objetos espeluznantes, o reemplazar válvulas y cambiar esas tarjetas perforadas. En aquellos días, hacer un poco de depuración podría haber tomado un sentido más literal. La almiranta Grace Hopper, renombrada científica informática, tenía una historia favorita que involucraba a algunos ingenieros que trabajaban en la computadora Harvard Mark II. Trataban de averiguar la causa de los problemas en un relé. Después de investigar un poco, descubrieron que la fuente de su problema era una polilla, literalmente, un bicho ("bug") en la computadora. La ENIAC fue una de las primeras formas de computadoras de uso general. Era una circunvolución de enormes componentes electrónicos y cables, de pared a pared. Tenía 17,000 válvulas de vacío y ocupaba aproximadamente 170 metros cuadrados. Imagínese si hoy tuviera que trabajar con un equipo de ese tamaño. No querría compartir una oficina con 170 metros cuadrados de maquinaria. Finalmente, la industria comenzó a usar transistores para controlar los voltajes. Ahora, los transistores son componentes fundamentales de todos los dispositivos electrónicos. Realizan casi las mismas funciones que las válvulas de vacío, pero son más compactos y más eficientes. Fácilmente, hoy puede haber miles de millones de transistores en un pequeño chip de computadora. Con el paso de las décadas, se hicieron más y más avances. La almiranta Grace Hopper inventó el primer compilador. Los compiladores hicieron que fuera posible traducir el lenguaje humano, mediante un lenguaje de programación, a código de máquina. Si no lo captó, hablaremos sobre compiladores más adelante en este curso. La gran enseñanza es que este avance fue un gran hito en la informática, que nos llevó a donde estamos hoy. Ahora, casi todo el mundo puede aprender lenguajes de programación, en cualquier lugar. Ya no tenemos que aprender a escribir código de máquina con unos y ceros. Podrás ver estos lenguajes en acción en futuras lecciones, en las que escribirás código tú mismo. Nota al margen: si pensar en eso te asusta, no se preocupes, te ayudaremos en cada paso del camino. Pero por ahora, volvamos a la evolución de las computadoras. Con el tiempo, la industria dio paso a las primeras unidades de disco duro y a los microprocesadores. Entonces, el lenguaje de programación comenzó a convertirse en la forma predominante con la que los ingenieros desarrollan software. Las computadoras se hacían cada vez más pequeñas, gracias a los avances en componentes electrónicos. En lugar de ocupar salas enteras, como la ENIAC, se volvían lo suficientemente pequeñas como para caber en una mesa. Xerox Alto fue la primera computadora parecida a los equipos con los que estamos familiarizados hoy en día. También fue la primera computadora en implementar una interfaz gráfica de usuario que usaba íconos, un mouse y una ventana. Algunos de ustedes pueden recordar que el tamaño y el costo de las computadoras históricas hacían casi imposible que una familia promedio tuviera una. En cambio, generalmente se las encontraba en centros de investigación militares y universitarios. Cuando empresas como Xerox comenzaron a construir máquinas a un precio relativamente asequible y con un factor de forma más pequeño, se dio inicio a la era del usuario de la informática. Luego, en los años 70, un joven ingeniero llamado Steve Wozniak inventó la Apple I, una computadora de una sola placa para aficionados. Con su amigo Steve Jobs, crearon una empresa llamada Apple Computer. El modelo siguiente a la Apple I, la Apple II, estaba lista para el usuario promedio. La Apple II fue un éxito fenomenal, se vendió durante casi dos décadas y permitió que una nueva generación accediera a las computadoras personales. Por primera vez, las computadoras fueron asequibles para la clase media y ayudaron a llevar la tecnología informática al hogar y a la oficina. En los años 80, IBM presentó su computadora personal. Fue lanzada con una versión primitiva de un sistema operativo llamado MS DOS o Microsoft Disk Operating System. Nota al margen: los sistemas operativos modernos ya no tienen texto, tienen hermosos íconos, palabras, e imágenes como las que vemos en nuestros smartphones. Es increíble lo lejos que hemos llegado desde el primer sistema operativo a los SO que usamos en la actualidad. Volvamos a la PC de IBM. Se la adoptó ampliamente y se hizo más accesible a los consumidores, gracias a una asociación con Microsoft. Microsoft, fundada por Bill Gates, finalmente creó Microsoft Windows. Durante décadas fue el sistema operativo preferido en el lugar de trabajo y dominó la industria de la computación porque podía ejecutarse en cualquier hardware compatible. Con más computadoras en el lugar de trabajo, la dependencia de TI aumentó, así como también la demanda de trabajadores calificados que pudieran dar soporte a esa tecnología. No solo las computadoras personales entraron al hogar por primera vez; también surgía un nuevo tipo de computación: los videojuegos. Durante los años '70 y '80, las máquinas de entretenimiento que funcionaban con monedas, llamadas arcade, fueron cada vez más populares. Una empresa llamada Atari desarrolló, en 1972, uno de los primeros arcades que funcionaba con monedas. Se llamaba Pong. Fue un éxito tan rotundo que la gente hacía filas en bares y centros recreativos durante horas para jugar. Las computadoras de entretenimiento como Pong inauguran la era de los videojuegos. Con el tiempo, Atari lanzaría el sistema de computadora de video que permite llevar las consolas de video personales al hogar. Los videojuegos han contribuido a la evolución de las computadoras de una forma muy real; cuéntaselo a la siguiente persona que los desestime como si fueran juguetes. Los videojuegos demuestran que las computadoras no siempre debían ser puro trabajo y cero diversión, también eran una gran fuente de entretenimiento. Este fue un hito importante para la industria de la computación, ya que en ese entonces, las computadoras se usaban principalmente en el lugar de trabajo o en institutos de investigación. Con grandes actores en el mercado como Apple Macintosh y Microsoft Windows dominando el espacio de los SO, un programador llamado Richard Stallman comenzó a desarrollar un sistema operativo gratuito, similar a Unix. Unix era un sistema operativo desarrollado por Ken Thompson y Dennis Ritchie, pero no era barato ni estaba disponible para todos. Stallman creó un SO que llamó GNU. Su intención era que fuese de uso gratuito, con una funcionalidad similar a Unix. A diferencia de Windows o Macintosh, GNU no era propiedad de una sola compañía, era de código abierto, lo que significaba que cualquiera podía modificarlo y compartirlo. GNU no evolucionó en un SO completo, pero sentó las bases para la creación de uno de los mayores SO de código abierto, Linux, que fue creado por Linus Torvalds. Entraremos en los detalles técnicos de Linux más adelante en este curso, pero debes saber que es un actor importante en los sistemas operativos actuales. Como especialista de soporte de TI, es muy probable que tú trabajes con software de código abierto. Tal vez ya estés usando uno, como el navegador de internet Mozilla Firefox. A principios de los 90, las computadoras comenzaron a ser aún más pequeñas. Entonces, un verdadero punto de inflexión entró en escena: las PDA o asistentes digitales personales, que permitieron que la computación se vuelva móvil. Estos dispositivos móviles incluían reproductores de medios portátiles, procesadores de texto, clientes de correo electrónico, navegadores de Internet, y mucho más, todo en un práctico dispositivo portátil. A finales de los 90, Nokia presentó una PDA con funcionalidad de teléfono móvil. Esto desató la industria de las computadoras portátiles o, como las conocemos hoy, los smartphones. En pocas décadas, pasamos de tener computadoras que pesaban toneladas y ocupaban cuartos enteros a tener computadoras poderosas que caben en nuestros bolsillos. Es casi increíble, y es apenas el comienzo. Si estás entrando en la industria de TI, es esencial que comprendas cómo brindar soporte a la necesidad cada vez mayor de esta tecnología en constante cambio. El soporte informático de hace 50 años consistía en cambiar válvulas de vacío y apilar tarjetas perforadas, cosas que ya no existen en el mundo actual A medida que las computadoras se vuelven más complejas y preponderantes, lo mismo ocurre con el conocimiento que se necesita para su soporte y mantenimiento. En 10 años, el soporte de TI podría requerir trabajar con lentes de realidad virtual, nunca se sabe. ¿Quién sabe lo que nos depara el futuro? Pero este es un momento increíble para estar a la vanguardia de esta industria. Ahora que sabemos de dónde vienen las computadoras y cómo evolucionaron a lo largo de las décadas, vamos a tener una mejor idea de cómo funcionan en verdad.