Está en la página 1de 17

25 tecnologías que cambiaron el rumbo de

la historia
La tecnología ha tenido momentos cumbres que han determinado el surgimiento de
tendencias, modas, formas de trabajo y hasta de vida. Son productos o desarrollos
representativos incluso de épocas o generaciones, y aunque toda lista que tenga el fin
que tiene esta, puede quedar a consideración de la falta o la sobra de algún tema, son
25 tecnologías que a la par de su impacto, también ayudaron al nacimiento de otras, o
tuvieron injerencia en su crecimiento y adopción.

Si bien es cierto que la tecnología propiamente no nace con el lanzamiento de la


computadora de escritorio de Texas Instruments en 1981, pues la primera generación
de computadoras “comerciales” se remonta a los años entre 1951-1958 –aunque la
primera máquina considerada computadora data de 1938 con Zuse Z1—, se podría
considerar que si fue una especie de “inicio” para las tecnologías de la información y
comunicación, como años después se conocerían, y de las que hoy depende en gran
medida la operación y productividad de muchas industrias.

Desde la considerada primera PC con el Programa 101, de la inventiva italiana Olivetti


entre los años 1962 y 1964, creado por el ingeniero italiano Pier Giorgio Perotto, quien
también inventó la tarjeta magnética, hasta el súper cómputo, la nube, la movilidad y el
IoT, la tecnología no parará y seguirá sorprendiendo a propios y extraños.

Sistemas operativos (SO)


Año: 1960
El concepto surge en la década de los 50, aunque el primer Sistema Operativo de la
historia fue creado en 1956 para un ordenador IBM 704, básicamente lo único que
hacía era comenzar la ejecución de un programa cuando el anterior terminaba. Un
tanto lejos de su misión actual: proporcionar una interfaz más sencilla a los usuarios
(programas o humanos) y administrar los recursos del hardware, ya sea en el tiempo
como en el espacio. Entre los primeros sistemas operativos al Fortran Monitor System
( FMS ) e IBSYS. En los años 60 aparece UNIX, el cual es la base de la gran mayoría de
los SO, en los 70 se desarrolló el lenguaje de programación C, diseñado
específicamente para reescribir por completo el código UNIX. El sistema MacOS, MS-
DOS y Windows, rompen la escena en los 80, mientras que Linux lo hace en los 90,
quien en los 2000 se alía al proyecto libre GNU.

Microprocesador
Año: 1971
Diseñado en un principio para una calculadora, Intel lanzó una pastilla de silicio que
contenía 2300 transistores, el 4004, con lo que nacía oficialmente el microprocesador
en un chip. Aquel equipo tenía una velocidad de reloj de 740 KHz, con líneas de
circuito que medían 10 micrones (10000 nanómetros), en la actualidad, un servidor de
alto desempeño tiene un número de transistores un millón de veces mayor.

Computadora personal
Año: 1971
Antes que saliera a la luz la máquina de Steve Wozniak, la Apple I en 1976 a inicios de
esa década John Blankenbaker, creó la primera computadora personal de tipo
comercial: Kenbak 1. Lo relevante –aunque el propio invento ya es importante— es que
la construcción de este equipo se basó en componentes TTL, pues fue antecesor de
los microprocesadores, lazados por Intel año después. En 1977 la aparición de la
Apple II rompería la escena informática, al construirse en serie y distribuirse de forma
masiva.

Correo electrónico
Año: 1971
En la época de ARPANET, (lo que después sería Internet), el ingeniero norteamericano
Ray Tomlison envió un mensaje dentro de esa red, utilizando el símbolo @ (arroba)
para especificar el destinatario del mensaje y con la aplicación SNDMSG. Pero en
1996 todo cambió a raíz de la aparición de Hotmail, como el primer servicio de correo
electrónico gratuito para el público en general.
Para 1997, Microsoft se hacía de la iniciativa por 400 millones de dólares, dando paso
a uno de los medios masivos favoritos de ataque por parte de los hackers.

Internet
Año: 1972
Es difícil imaginar el mundo sin la red de redes: sin correo electrónico, ni buscadores
Web, ni YouTube, ni redes sociales. No habría salas de chat, ni blogs, ni un estudiante
podría consultar libros sin salir de su casa. Lo que en 1967 comenzó como un
proyecto en Estados Unidos en la Advanced Researchs Projects Agency (ARPA), para
crear una red de ordenadores denominada ARPANET, ahora es utilizado por más de
mil millones de personas. En 1972, se demostró que el sistema era operativo, por lo
que se creó una red de 40 puntos conectados en diferentes localizaciones. En 1982,
ARPANET adoptó el protocolo TCP/IP, dando paso a Internet (International Net).
En 1991 fue presentada la World Wide Web (WWW), una red de portales que podían
ser buscados y mostrados con el protocolo HyperText Transfer Protocol (HTTP), pero
su utilización no fue exponencial, pues a finales de 1992 solamente había 50 sitios
Web en todo el mundo, y sólo 150 en 1993. Con el nacimiento, en ese mismo año de
buscadores sencillos de instalar y utilizar como Mosaic, nuevos sitios y actividades
comerciales en la red, así como la aparición de computadoras más accesibles al
público, Internet comenzó su andar hasta lo que conocemos ahora.
En la actualidad los expertos dicen que estamos en la Web 3.0, basados en servicios
de colectividad, acceso a la red desde cualquier medio, sitio, o equipo. Con novedades
tan relevantes como el uso de la inteligencia artificial.

Ratón de computadora
Año: 1973
Los primeros “ratones” vieron la luz en Canadá por los años 50, sin embargo, el primer
prototipo se le adjudica a Douglas Engelbart, norteamericano que entonces laboraba
en una máquina que tenía como objetivo aumentar el intelecto humano (tecnologías
como la interfaz gráfica, los videos y el chat surgieron de ese proyecto). La propuesta
fue desarrollada por Xerox PARC, pero se hizo famosa cuando la comercializó Apple.
A diferencia de dicho modelo, el cual costó 300 dólares y duró sólo dos semanas,
Steve Jobs pidió un ratón que pudiese ser fabricado por menos de 15 dólares y que
tuviera vida de al menos dos años.

Fotografía digital
Año: 1975
El camino dio inicio con el entonces joven ingeniero de la firma japonesa Kodak,
Steven Sasson, tuvo la misión de buscar una utilidad a los sensores CCD, con el
objetivo final de crear una cámara en la que no hubiera ninguna parte móvil. Todo
tenía que ser digital, desde la captación de la imagen hasta el almacenamiento de la
información (lo que se consiguió a medias). Fue así que nació un ‘armatoste’ de 3
kilogramos, con capacidad para registrar una resolución de 100×100 píxeles (calidad
equivalente a 0,01 megapixel), la cual necesitaba 23 segundos para guardar una
fotografía en blanco y negro en una cinta de casete y otros 23 para recuperarla.
En 1986, Kodak inventó el primer sensor de megapíxeles del mundo y en 1991 la
Dycam Model 1, se considera como la primera cámara de su tipo en el mercado. Y fue
en 1999 cuando aparece la Nikon D1, con 2.74 megapíxeles y un costo inicial de
menos de 6,000 dólares, dando acceso a más aficionados a la fotografía y no sólo a
profesionales. Para 2003 Canon presentó la primera cámara réflex digital. Mientras en
Japón, en 1999, Kyocera comercializó el VP-210, primer teléfono que integraba una
cámara digital, la cual podía registrar 20 imágenes o retransmitir video a 2 imágenes
por segundo.

Computadora

portátil
Año: 1981
Se podría decir que el equipo precursor de esta tecnología fue la Obsorne I, en 1981,
aunque era muy limitado: la pantalla era muy pequeña, del tamaño de un teléfono
celular, con un peso de 10 kg, lo que dificultada su transportación y con un precio de
$1,795 dólares. A partir de ahí, aparecieron computadoras que comenzaron a crear lo
que hoy conocemos como máquinas portables: Grid Compas 101, la HX-20 de Epson y
la Compaq Portable de Compaq, o la Gavilan SC. Fue hasta 1986 que se presentó la
IBM Convertible PC, a la cual se le podía quitar la pantalla, aunque ésta no servía para
nada sin estar puesta en la máquina, pero lo notable era que por fin se presentaba un
equipo con una batería recargable. Y fue hasta 1991 cuando se hizo presente la
primera laptop que marcó tendencia por su diseño: Mac PowerBook. Aunque el
modelo pesaba 6 kilos, lo que lo distinguió fue la disposición del teclado aventado
hacia atrás para darle espacio al mouse de bolita tan característico de la época,
además que fue considerado lo más económico del momento, al registrar un precio
que oscilaba entre los $2,299 y los $4,599 dólares.
Hoy contamos con equipos completamente portátiles, con capacidades de hasta
16GB en RAM y 1TB de almacenamiento interno. Pantallas de retina, modelos
convertibles en tabletas e incluso lápices ópticos para mejorar la experiencia de
usuario, sin mencionar la inclusión de tarjetas gráficas en verdad poderosas.

Disco compacto
Año: 1982
Este disco con tecnología óptica fue popularizado comercialmente por la sinergia
Sony/Philips a principios de la década de los 80, creando furor en materia de
almacenamiento, primero de audio y luego de datos, desplazando al rey: el disquete.
Los CD estándar tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y
pueden almacenar hasta 80 minutos de audio o 700MB de datos.

Pantalla touch
Año: 1983
Tan común interactuar con el teléfono inteligente mediante el desplazamiento con un
dedo, que a veces no se le da la importancia debida a esta tecnología. Los orígenes se
remontan a la década de los 70, al Dr. Samuel C. Hurst y su equipo de investigación;
quienes utilizaron papel conductor de electricidad para leer un par de coordenadas X e
Y, lo que permitió calcular en unas cuantas horas lo que hubiera llevado días. La idea
dio como resultado la primera pantalla táctil. Sin embrago, algunos historiadores le
atribuyen la primera al británico E.A. Johnson, alrededor de los años 1965 y 1967, la
cual fue una pantalla táctil capacitiva.
En los 80, HP lanzó al mercado una computadora con pantalla táctil: HP-150, la cual
funcionaba con transmisores y receptores infrarrojos montados alrededor de una
pantalla Sony CRT de 9 pulgadas; esos sensores detectaban la posición de cualquier
objeto no transparente en la pantalla. Sin embargo, éstos se ensuciaban
frecuentemente con polvo, por lo cual requería una constante limpieza para su
correcto funcionamiento.

Casi 10 años después, Apple introdujo una pantalla de este tipo con su (fracasada)
PDA llamada Newton, y fue con el primer ‘smartphone’ de IBM, donde se comenzó a
ver realmente el uso de esta tecnología.

Memoria flash
Año: 1984
Aunque Intel fue la primera compañía en comercializar su uso masivo, el japonés Fujio
Masuoka es considerado el padre de esta tecnología, y derivó de la evolución de las
entonces utilizadas memorias EEPROM. Cuando aparecieron, trabajaban con las
memorias ROM de las BIOS de las computadoras, aunque entonces contenían sólo
una celda de memoria, hoy, compañías como TDK están fabricando discos duros con
este tipo de productos (Flash NAND) de hasta 320GB o más y con velocidades de 33.3
Mb/s, y empresas como SanDisk y Kingston trabajan con capacidades de 1TB.
Cabe señalar que su desarrollo va de la mano con el de los dispositivos, por ejemplo,
cuando se lanzó en 1998 el primer walkman sin partes móviles (de la empresa RIO),
esta tecnología le dio sentido a escuchar música sin ningún tipo de sobresaltos. Años
después, haría su aparición la memoria USB, que aunque tiene las mismas bases, son
tecnologías de almacenamiento con diferentes desarrollos.
Teléfonos inteligentes
Año: 1992
El uso de los smartphones, se ha vuelto algo cotidiano y las nuevas generaciones se
sorprenden cada vez menos con las aplicaciones y herramientas que éstos ofrecen.
Pero cuando en 1973, Motorola lanzó el DynaTAC masivamente, la historia nunca
pensó que años después, la gente tendría su vida laboral y personal literalmente en la
“palma de la mano”, gracias a esta pequeña pero poderosa minicomputadora súper
portátil.
El primer teléfono inteligente fue diseñado por IBM en 1992 y fue bautizado como
Simon, con características de teléfono celular y asistente personal, e incluso integraba
pantalla táctil. Fue mostrado en la expo COMDEX y liberado al público en 1993,
comercializado por BellSouth. Al cierre de esta edición, Apple ya había lanzado su
nuevo producto insignia iPhone X, versión que cuesta arriba de los nada despreciables
25 mil pesos.

Navegadores de Internet
Año: 1993
La definición es simple: son programas que permiten acceder a la Web y éstos han
evolucionado a la par que el propio Internet y sus usuarios. Creado en la Universidad
de Illinois, el 14 de marzo de 1993: Mosaic fue el primer navegador que abre la web a
los usuarios, mientras Netscape aparece en 1994 y domina la escena hasta 1997,
aprovechando que hasta 1996, Microsoft no incluía en Windows un navegador Web,
aunque sí ofrecía acceso a una red privada llamada Microsoft Network. A partir de
entonces, el gigante informático integró Internet Explorer a su propuesta y se apoderó
del primer lugar. Netscape prácticamente desapareció en 1998, no sin antes fundar, la
iniciativa sin ánimo de lucro Mozilla, que no es otra cosa que un navegador basado en
software libre. En 2003 nació Safari el navegador del logo de la manzana, en 2005
aparecen Firefox y la propuesta noruega Opera, por lo que el fabricante-desarrollador
transnacional vino a la baja con su propuesta.
La puntilla viene con Chrome, de Google, en el 2008, quien es el claro dominador
actualmente. A eso se le suma la aparición de las versiones para dispositivos móviles
como los teléfonos inteligentes y las tabletas de prácticamente todas las propuestas,
lo que genera mayor amplitud en la oferta, incluso, rebasando la demanda.

Bluetooth
Año: 1994
Popularizada por Ericsson, y con Jim Kardach como uno de los responsables del
desarrollo de esta tecnología de comunicación inalámbrica, se le bautizó en referencia
a uno de los reyes vikingos: Harald Blåtand, cuya traducción al inglés es Harald
Bluetooth, y quien fuera conocido por unificar las tribus noruegas, suecas-danesas y
convertirlos al cristianismo. Esto hizo sentido con la propuesta, que busca la
unificación de la comunicación de los sistemas digitales.
Por este protocolo, se realiza la transmisión de voz y datos entre diferentes
dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2.4 GHz, y
los equipos que se conectan se clasifican como Clase 1, Clase 2 o Clase 3, en
referencia a su potencia de transmisión. En la actualidad, más de 1400 marcas
integran dicha tecnología.
Sistema de Posicionamiento Global (GPS, por sus siglas en inglés)
Año: 1995
Aunque nació en 1973, esta tecnología fue declarada oficialmente funcional en 1995.
En sus inicios, la propuesta estaba dirigida al segmento de la milicia estadounidense,
quién al transcurrir de los años, permitió su uso civil con ciertas restricciones. Las
aplicaciones disponibles se orientan a sistemas de navegación y aplicaciones
cartográficas: topografía, cartografía, geodesia, sistema de información geográfica
(GIS), deportes de montaña, náutica, expediciones de todo tipo, etcétera. También en
patrones de tiempo y sistemas de sincronización, aplicaciones diferenciales que
requieran mayor precisión además de aplicaciones militares y espaciales.
El sistema integra una constelación de satélites de navegación que orbitan el planeta
a una altitud de cerca de 20000 kilómetros, lo que ayuda a que hoy nadie se pierda
cunado maneja, sobre todo en una gran urbe como la CDMX.

Comercio Online
Año: 1995
Hablar de la evolución del comercio sería un artículo demasiado extenso, pues los
cambios que éste ha sufrido a lo largo de la historia de la humanidad, es interminable.
Sin embargo, con la llegada del Internet, también vino una modificación dramática en
el quehacer comercial: el eCommerce. La idea primaria es básica, aprovechar las
herramientas electrónicas para realizar intercambios o transacciones comerciales a
través de la red, y en, por y para cualquier parte del mundo.
Los primeros datos señalan 1960 como el inicio de este tipo de actividad, gracias a un
sistema que permitía a las empresas realizar transacciones electrónicas e
intercambio de información comercial, y aunque en 1994 se vendía la primera pizza
online, es en 1995, con la aparición de portales como Amazon y eBay que esta
actividad comienza su posicionamiento transaccional.
Actualmente, y aunque en países como México falta trabajo de adopción y confianza
en la seguridad de la información, durante el año pasado este mercado alcanzó los
300 mil millones de pesos, y su en 2017 ya alcanza el 22% de la población mundial y la
mitad de los usuarios que compran a través de Internet lo hacen desde dispositivos
móviles. Atractivo, ¿no?

Cómputo en la nube
Año: 1996
Su primera concepción se le atribuye a John McCarthy, en 1961, quien imaginaba que
la tecnología de tiempo compartido en las computadoras, podría conducir a un futuro
donde el poder del cómputo e incluso de las aplicaciones podrían venderse como un
servicio, de la misma forma que el agua o la electricidad. Pero fue hasta 1996 cuando
Douglas Parkhill exploró a fondo muchas de las características actuales de la
computación en la nube (aprovisionamiento elástico a través de un servicio de
utilidad), así como la comparación de la industria eléctrica y el uso de las formas
públicas, privadas, comunitarias y gubernamentales. Pero fue la compañía
Salesforce.com, la que introdujo la entrega de aplicaciones empresariales a través de
una página web, en el año 1999. En el año 2002, Amazon lanzó Amazon Web Service, y
el mundo cambió.
En el año 2006, se lanzó Google Docs y trajo el cloud computing a la vanguardia en la
conciencia del público, mientras Microsoft llegaría hasta 2009 con Windows Azure, y
dos años después, Apple lanzó el servicio iCloud.

Memoria USB
Año: 1998
Fueron décadas donde el disquete reinaba en cualquier tema de resguardo de
información, le quito ese lugar el disco compacto (CD), pero con la llegada de las
memorias flash USB (Universal Serial Bus), éstas se volvieron la fuerza reinante. La
historia refiere que en 1998, IBM le pidió a la empresa israelita M Systems (comprada
después por SanDisk), las primeras USB para su línea G inkPad, entonces con 8, 16, 32
y 64 megas. Sin embargo, fue Trek Technology con el modelo ThumbDrive el primero
en aparecer en los estantes delas tiendas. Actualmente, hablar de esas cantidades de
almacenamiento parece broma, pues en el mercado se encuentran productos de 2TB,
pero si nos ubicamos en el año 2000, tener en una pendrive 16MB era “cosa del
diablo”.

Reproductores de audio
Año: 1998
El primer reproductor musical podría considerarse al fonógrafo, de Edison, para
continuar con los “tocadiscos”, sin embargo, cuando Sony lanzó en 1979 el walkman,
la historia dio un giro completo. Fueron aproximadamente 25 años de fabricación de
esta línea por parte del gigante japonés, y tuvo su “deceso” en gran medida por la
salida al mercado de los reproductores MP3. Formato de codificación de audio, que
usa un algoritmo de compresión de datos con pérdida de calidad.
La era digital tuvo un impacto también en la industria de la música tras la salida del
Diamond Rio PMP300, el primer equipo en su tipo en el mercado. Este dispositivo
permitía almacenar canciones en su memoria interna, eliminando la necesidad de
cargar discos compactos y casetes. Además, el formato electrónico permite
descargar temas y producciones desde cualquier lugar por medio de Internet,
haciendo más fácil la proliferación de dichos archivos. La aparición en el 2001 del
iPod, dio la puntilla para que este modelo de reproducción se masificara
definitivamente, pero años después, la posibilidad de escuchar música en un teléfono
inteligente, al parecer condenó a muerte a estos aparatos.
Multifuncionales
Año: 1998
Aunque la impresora tiene sus inicios prácticamente junto con la creación de la
primera computadora, pues el registro data de la década de los 40, y con importantes
cambios evolutivos en 1953 (la primera de alta velocidad), 1957 (la primera matricial),
1968 (la primera mini impresora), 1971 (láser Xerox [proceso de impresión en seco]),
1976 (nace la inyección de tinta) y 1988 que fue cuando llegó se comercializó
masivamente; 1990 cuando HP lanzó la primera impresoras láser de menos de $1,000
dólares. En 1991 nació la primera impresora de red y en 1994 la primera LaserJet
Color.
Pero en 1998, HP lanzó el primer láser multifunción para el segmento consumidor, un
hito en la historia porque integraba varias tecnologías: el usuario y sobre todo las
empresas podían imprimir, fotocopiar, escanear y enviar faxes, desde un mismo
dispositivo. Y a pesar que los equipos unifuncionales siguieron y continúan
evolucionando, lo cierto es que los multifuncionales rompen los esquemas, gracias a
la baja en costos de adquisición, de insumos y tecnologías que a la par ayudaron a
revolucionar este tipo de dispositivos como el imprimir en color o monocromático, la
conexión a la red, la integración del driver de impresión universal (2005, HP), con el
que el departamento de TI podía gestionar de forma más eficaz las flotas de
impresoras.
Big Data
Año: 1999
Aunque el concepto de la generación de datos no es algo tan novedoso, en 1999, se
registró como el primer uso del término en un trabajo académico: Visually Exploring
Gigabyte Datasets in Realtime (ACM). Entonces comenzó la ‘cosquilla’ de centrarse en
el análisis de la información, pues empezó a haber una gran cantidad de datos, y no
todos son útiles. Para el 2001, Doug Laney, de la consultora Gartner, definió las 3 Vs
del Big Data, conceptos que definieron el término: volumen, velocidad y variedad. Con
el nacimiento de la Web 2,0 en 2005 y aplicaciones como Hadoop, el cual es un
entorno Big data de software libre, comenzó el posicionamiento de dicha tendencia.
En 2010, las cifras fueron escalofriantes: los datos que se generanban en dos días
equivalían a la cantidad generada desde el inicio de la civilización hasta 2003, según
Eric Schmidt de Google. Mientras que en este 2017, y en el auge de tecnologías como
el Machine Learning o el Internet de las cosas, el Big data se masifica gracias a
pulseras, aplicaciones móviles para sus actividades tanto laborales como
recreativas, y ya no parará.

Wi-Fi

Año: 2000
En la actualidad, la frase más común cuando la gente llega a cualquier lugar es: ‘¿cuál
es la clave de Wifi?’. Gracias a esta tecnología, se volvió excesivamente sencillo
conectar e intercambiar información entre dispositivos electrónicos sin necesidad de
una conexión mediante el uso de cables. Las bases del Wi-FI actual nos llevan a 1985,
cuando la comisión de comunicaciones de los Estados Unidos estableció las
características que tenía que disponer una red inalámbrica asignando las frecuencias
en las que trabajan esta tecnología conocidas como bandas ISM (Industrial, Scientific,
Medical).
En 1997 se lanzó el estándar 802.11 por parte del IEEE (Instituto de ingenieros
eléctricos y electrónicos), y en 1999 las empresas 3Com, Airones, Intersil, Lucent
Technologies, Nokia y Symbol Technologies, se reunieron para crear la Wireless
Ethernet Compatibility Alliance, o WECA, llamada Wi-Fi Alliance, desde 2013 y que
tenía como objetivo, designar una marca para fomentar con más facilidad la
tecnología inalámbrica y asegurar la compatibilidad de equipos.

Es así que en abril de 2000 la WECA certifica la interoperabilidad de equipos según la


norma IEEE 802.11b, bajo la marca Wi-Fi, con lo que al usuario se le garantiza que
todos los equipos bajo ese sello pueden ‘hablarse’ sin problemas, independientemente
del fabricante de cada uno.

Redes sociales
Año: 2004
En la actualidad, parece imposible interactuar con el mundo sin las ‘Redes Sociales’,
se han convertido en la nueva forma de comunicación para las nuevas generaciones,
sin embargo, antes de 1994, cuando se funda GeoCities, como el precursor de los
sitios de comunicación, la vida transcurría de manera normal. Y si en 2002 nació el
portal Friendster, y en 2003 la Web MySpace, pioneros en la conexión online, sería la
llegada de Facebook de Mark Zuckerberg, en 2004, lo que detonaría definitivamente la
adopción de las redes (En 2006 se inaugura Twitter y ayudaría a este
posicionamiento).
Concebida originalmente como una plataforma de conexión para estudiantes de la
universidad de Harvard, entonces más de la mitad de alumnos (19,500) se
suscribieron a la propuesta. Es tan grande el impacto que ha creado, que, en marzo de
2017, cerca de 2,000 millones de personas utilizaron Facebook de forma activa, es
decir, un tercio de la población mundial o lo que es lo mismo: lo equivalente a la
población total de India, Estados Unidos e Indonesia juntas.

Youtube
Año: 2005
A mediados de la década del 2000, y justo cuando el boom de Internet se apoderaba
de la vida personal y laboral de los usuarios, irrumpió en la escena una plataforma de
gestión de videos: YouTube, causando una revolución en la red. Fueron tres ex-
empleados de PayPal, Steve Chen, Chad Hurley y Jawed Karim, quienes tuvieron una
idea simple: crear un lugar en la red donde poder compartir videos públicamente; algo
que entonces era virtualmente imposible.
Me at the zoo (Yo en el zoológico), fue el primer clip cargado al sitio el 23 de abril de
ese mismo año, y pertenecía a la cuenta de Jawed Karim. En él, podemos ver 18
segundos de una visita al Zoológico de San Diego, acompañados de un breve
comentario sobre los elefantes de fondo, nada fuera del otro mundo.

Ni siquiera era considerada una red social, sino un repositorio donde subir, guardar y
ver videos, lejos estaban los influencers que hoy las nuevas generaciones admiran.
Después de la compra de Google por la friolera de 1,650 millones de dólares, la
propuesta no ha dejado de generar dinero y cambios que muchas plataformas han
tratado de imitar pero que se antoja difícil para destronar, y menos con la apabullante
cifra de más de mil millones de usuarios que registra el portal.
Nanotecnología
Año: 1957
Como se puede comprobar al leer la pasada lista, el desarrollo tecnológico seguirá un
camino ascendente sin precedentes. Las 24 propuestas que se plasmaron de cierta
manera tuvieron injerencia en otras tecnologías que su vez, provocaron el nacimiento
y evolución de otras. Por lo pronto, son al menos tres disciplinas las que se prevé
tendrán una fuerte interacción con las TIC y entre sí: nanotecnología, biotecnología y
las ciencias cognitivas.
Enfoquémonos en la primera; está asociada a nuevos materiales en la infinita escala
de lo pequeño: un nanómetro es la millonésima parte de un milímetro, y ésta trabaja
en escalas de cien o menos nanómetros. Y las aplicaciones son demasiado abiertas,
pues abarcan a la medicina, la industria farmacéutica, la biotecnología, nuevos
materiales, química, industria aeroespacial, energía, cómputo, almacenamiento, y un
largo etcétera. Recordemos que los semiconductores y la escala de los circuitos
integrados son precursores de la nanotecnología.

A su vez, las TIC tendrán influencia en esta propuesta, al utilizar sensores de diversos
tipos, incorporados de diferentes formas y métodos en los cuerpos humanos,
ofreciendo información en tiempo real de múltiples procesos orientados a la
prevención y la curación de enfermedades, por ejemplo, mediante indicadores
analizados a distancia. A la par, la vida empresarial se verá infiltrada cada vez más, de
dispositivos pequeños que ofrezcan múltiples ventajas de eficiencia laboral y
productividad, de la mano de la movilidad, y para ello, la nanotecnología jugará un
papel medular en este objetivo.

También podría gustarte