Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Arpanet, la red de Arpa, consigue la primera conexión entre dos equipos informáticos el 29
de octubre de 1969. Fue un mensaje enviado por el programador Charley Kline con la
palabra “login”. En ese momento, la red contaba con cuatro ordenadores en cuatro
localizaciones distintas: la Universidad de California en los Ángeles (UCLA), la Universidad
de California en Santa Bárbara (UCSB), el Stanford Research Institute (SRI International) y la
Universidad de Utah.
El Internet que conocemos hoy empezó a tomar forma a partir de 1973 en un proyecto
liderado por los ingenieros Vinton Cerf y Robert Kahn. Su plan de crear una “red de redes” se
basaba en tres pilares básicos:
Entre 1974 y 1981 se definió el protocolo entre ordenadores TCP/IP (Transmission Control
Protocol/internet Protocol), todavía hoy en uso. Este complejo sistema de protocolos
informáticos permite que los ordenadores puedan conectarse entre sí, independientemente
del sistema operativo de esas máquinas.
En 1984, un ingeniero británico, Tim Berners Lee, empezó a trabajar en un proyecto para el
CERN (Conseil Européen pour la Recherche Nucléaire) de Ginebra, con el objetivo de crear
un sistema de búsqueda y recuperación de información.
Este es el esquema que presentó Berners-Lee a sus jefes del CERN en el que explicaba cómo iba a
funcionar la WWW.
● Crear un software que permitiera a los usuarios navegar y editar páginas web.
Navegadores como Mosaic, Netscape, Explorer etc.
● Conseguir un lenguaje estandarizado para las páginas web, de forma que pudieran
ser visualizadas por cualquier navegador: HTML o HyperText Markup Language
Una metáfora muy utilizada es que Internet es una red de autopistas y la WWW uno de los
coches que circulan por ella. Aparte de la web, usamos Internet para enviar emails (SMTP),
transferir ficheros por FTP o mediante redes P2P, aplicaciones de smartphones, mensajería
instantánea, transmisión de señales de audio y vídeo…
El término Web 2.0 nace a mediados de 2004 y debe su origen a una tormenta de ideas entre
los equipos de O’Reilly Media y MediaLive International.
Pese a haber sufrido el estallido de la “burbuja puntocom” en 2000, la web estaba lejos de
estar parada, al contrario, estaba más viva que nunca. Dale Dougherty de O’Reilly Media
llamó a esa nueva web, Web 2.0. Fruto de esta tormenta de ideas se organizó la Web 2.0
Conference en octubre de 2004.
En septiembre de 2005, Tim O’Reilly publicó un artículo pionero en el que describe la nueva
web social: “What is Web 2.0. Design Patterns and Business Model for the next generation of
software”.
Los nuevos términos que van a definir la web 2.0 son:
● Software social
● Arquitectura de la participación
● Aplicaciones en la red
Las nuevas empresas 2.0 empiezan a ofrecer software gratuito, con la Web como
plataforma: las herramientas y sus contenidos existen en la propia Web y no en la
computadora del usuario.
Aparece además el concepto de “mashup”: una aplicación híbrida que usa y combina datos
y funcionalidades procedentes de una o más fuentes. Se usan a menudo APIs abiertos y
fuentes de datos (de Google Maps por ejemplo) para producir resultados diferentes a las
aplicaciones originales.
Otra herramienta que permite la creatividad de los usuarios son los blogs: son fáciles de
usar, tienen un bajo coste o a veces son gratuitos, son interactivos, humanizan a las
organizaciones, son creíbles, inmediatos, directos e infecciosos, pueden ser consultados por
los periodistas, no son intrusivos, otorgan autoridad e influencia, y permiten llegar a
audiencias que han abandonado otros medios.
Esa capacidad de creación del usuario que tiene la web 2.0 obliga a replantear los
esquemas de creación de productos informativos o culturales. En We the Media, de Dan
Gillmor , publicado en 2004, se intenta analizar la relevancia de las aplicaciones de escritura
colaborativa en el nuevo periodismo.
Gillmor afirma que “mis lectores saben más que yo” y cree que este tipo de informaciones
ajenas a los intereses comerciales de los grandes medios pueden crear un nuevo tipo de
periodismo “ciudadano” que atienda a su propia agenda informativa.
Otra de las líneas de la web (ya anticipada por Berners Lee) es la llamada web semántica,
también denominada por algunos autores como la web 3.0. La web semántica, según el
Web Consortium, implica que la web tiene la capacidad de construir una base de
conocimiento sobre las preferencias de los usuarios y que, a través de una combinación
entre esta capacidad y la información disponible en Internet, es capaz de atender de forma
exacta las demandas de información por parte de los usuarios en relación, por ejemplo, a
reserva de hoteles, vuelos, médicos, libros, etc. Estamos hablando de software inteligente
que es capaz de deducir a través de los datos obtenidos en la red y sacar conclusiones.
Para algunos expertos, la web 4.0 ya está aquí o más bien, está a punto de llegar. La Web 4.0
se define como una web abierta, conectada, predictiva e inteligente que aspira a ofrecer
soluciones específicas al usuario, basándose tanto en la información que este da o ha dado
como en toda la que ya existe en la web.
Nuevos modelos de comunicación máquina-máquina (M2M). La red 4.0 estará formada por
agentes inteligentes que, operando de forma autónoma en la nube, podrán comunicarse
entre sí y delegar la respuesta al agente adecuado.
Nuevos modelos de interacción con el usuario. Juegan en este punto un papel importante la
preponderancia de uso de dispositivos móviles (Mobile First), los bots, el Internet de las
Cosas (IoT) y otras tecnologías como el reconocimiento facial, sistemas biométricos, chips
subcutáneos, chips de retina, vehículos autónomos… Aprendizajes automáticos como deep
learning y machine learning suponen un importante impulso tecnológico en este sentido
La Web 4.0 supondrá considerar internet prácticamente como una necesidad básica.
Cambiará la forma de trabajar, de vivir y de consumir de las personas. Transformará también
la industria y la manera en que las empresas producen, ofrecen productos y prestan
servicios.
Pero, dejando conceptos aparte, lo que condiciona la web actual es la concentración del
poder tecnológico y económico en unas pocas manos, concretamente cuatro. Son las
llamadas empresas GAFA: Google, Apple, Facebook y Amazon.
Estas cuatro compañías controlan lo que buscamos, lo que compramos, la publicidad que
consumimos y la visión de la realidad que tenemos. Además, ingresan anualmente unos
800.000 millones de dólares y tienen una capitalización bursátil de 4,7 billones.
En julio de 2020, los directivos de las cuatro empresas comparecieron juntos durante seis
horas ante el comité antimonopolio del Congreso de Estados Unidos. Se trataba de
averiguar si controlaban la competencia en campos como las búsquedas en Internet
(Google), la venta online (Amazon), la comercialización de aplicaciones para móviles (Apple)
o la distribución de información (Facebook).
En octubre de 2020, los congresistas publicaron un informe en el que concluyeron que las
GAFA usan prácticas de monopolio de mercado, ya que al controlar la infraestructura de la
era digital, "han vigilado" a otras empresas para identificar rivales potenciales y, en última
instancia, "han comprado, copiado o eliminado sus amenazas competitivas". Los
congresistas recomendaban endurecer la legislación para controlarlas afirmando que
“nuestra democracia está en juego”. Si la recomendación llega a concretarse, la opción más
obvia es que se obligue a estas compañías a fragmentarse para acabar con su posición de
guardianes del mercado.
Este escenario ha sido calificado por la economista Soshana Zuboff como “capitalismo de
vigilancia”. Zuboff investiga el momento exacto en el que Google, en un afán de monetizar
los resultados de su buscador, empieza a analizar y explotar los datos de los usuarios. Este
análisis iría refinándose hasta llegar a predecir (y modificar) el comportamiento del
consumidor a través de un algoritmo opaco. Zuboff asegura que el capitalismo de la
vigilancia “reclama experiencias humanas privadas para convertirlas en datos de
comportamiento e integrarlas al mercado”.
Este modelo, creado por Google, se extendió posteriormente a Facebook y el resto de las
redes sociales. Zuboff insiste en que la tecnología digital no es la culpable de esta situación,
sino el uso que ciertas empresas han hecho de esta tecnología.
El padre de la web, Tim Berners Lee ya ha dado la voz de alarma sobre el oscuro rumbo de la
www y denunció en 2016 que la red "se ha convertido en un motor de inequidad y división;
dominada por fuerzas poderosas que la utilizan para sus propias agendas". En colaboración
con el MIT, Lee ha creado la plataforma Solid, un proyecto de código abierto para "restaurar
el poder y la agencia de los individuos en la web".
La finalidad básica de Solid es cambiar el modelo actual en cuanto a los datos de los
usuarios dándole a los individuos un control absoluto sobre sus datos, sean personales o
no, de una forma directa. Eso se consigue, según ha explicado el padre de la World Wide
Web, ofreciendo a cada usuario la posibilidad de elegir dónde se almacenan los datos, qué
personas y grupos específicos pueden acceder a determinados elementos y qué
aplicaciones utiliza.
Y todo de una forma descentralizada. Esto significa que no hay un lugar central para
registrarse en este sistema. Que nadie controla los datos de todos. Sin embargo, sí se puede
registrar una identidad y obtener un PoD en un servidor Solid, nuestro lugar de
almacenamiento personal. Esta identidad, será nuestra credencial en internet. Nuestra
manera de iniciar sesión en los sitios compatibles, como si lo hiciésemos con nuestro
correo o conectando la cuenta con una de nuestras cuentas en redes sociales, por ejemplo.
Berners Lee también ha creado Inrupt, una plataforma para comercializar y extender Solid.
En los últimos años, Solid ha sido probado con éxtio en grandes entidades en Europa como
la BBC y el Servicio Nacional de Salud en el Reino Unido, además del Gobierno de Flandes en
Bélgica.
Otro de los aspectos que también preocupa a los creadores de la www es la falta de
apertura que crea el uso de las redes sociales. Si Internet originalmente se entendía como
una red que permitía que nos comunicáramos globalmente, ahora Facebook y Twitter
funcionan como “burbujas aisladas” en la que los usuarios sólo disfrutan de los relatos,
ideas y personajes que les resultan placenteros y rechazan e ignoran todo aquello que puede
contradecir sus creencias.
Un estudio de tres sociólogos italianos realizado en 2016 demuestra las llamadas “cámaras
de eco” de Facebook. Los usuarios de diferentes comunidades tienden a no interactuar
entre sí y sólo se conectan con amigos de mentalidad y perfil parecidos, creando grupos
cerrados.
Los contenidos que seguimos o que se nos ofrecen en Facebook, están basados en nuestro
comportamiento: clicks o likes pasados. Lo que hacen los algoritmos de Facebook es
intentar aumentar el “engagement” o compromiso del usuario con la red social para que
crezca el tiempo y la atención que dedicamos a su plataforma.
Para conseguir esto, se nos ofrecen solamente historias que van a encajar con nuestra
manera de ver el mundo.
Google también filtra los resultados de las búsquedas que ofrece basándose en la
localización y las búsquedas y clicks previos. De esta manera el algoritmo aumenta la
efectividad de sus búsquedas pero también las restringe sin que el usuario sea informado
de ello.