Está en la página 1de 10

TEMA 2 Evolución de la World Wide Web

2.1 Nacimiento de Internet


2.2 La Web 2.0: el software social
2.3 Evolución conceptual de la web

2.1 Nacimiento de Internet


El origen de Internet hay que buscarlo en la “Guerra Fría” del siglo XX. Una de las reflexiones
del gobierno de EEUU es que se necesita disponer de una red de comunicaciones
descentralizada que pudiera resistir la destrucción de uno de sus puntos. En 1958 el
entonces presidente de EEUU Dwight D. Eisenhower funda la Advanced Research Projects
Agency (ARPA) como un departamento científico del Ministerio de Defensa, reaccionando
así a la puesta en marcha del satélite soviético Sputnik.

Arpanet, la red de Arpa, consigue la primera conexión entre dos equipos informáticos el 29
de octubre de 1969. Fue un mensaje enviado por el programador Charley Kline con la
palabra “login”. En ese momento, la red contaba con cuatro ordenadores en cuatro
localizaciones distintas: la Universidad de California en los Ángeles (UCLA), la Universidad
de California en Santa Bárbara (UCSB), el Stanford Research Institute (SRI International) y la
Universidad de Utah.

La red fue ampliándose de forma progresiva vinculando a más universidades y organismos


estadounidenses. En 1973, la red se establece en Europa. En 1990 se puso fin a lo que es
Arpanet, que fue sustituida por la ya existente NSFNet desde 1985 (que en 1995 dejó de
funcionar).

La tecnología base de Arpanet se basaba en la llamada “transferencia de datos por


paquetes” en la que se envían paquetes de datos distribuidos entre varios nodos con una
palabra clave que conmuta entre ellos. Cada paquete es autónomo de los otros paquetes
que transmiten la información. Esto también significa que los paquetes pueden seguir
diferentes caminos y se agrupan una vez llegan al receptor. De esta forma se consigue una
red más eficiente y se evitan fallos en la trasmisión.

El Internet que conocemos hoy empezó a tomar forma a partir de 1973 en un proyecto
liderado por los ingenieros Vinton Cerf y Robert Kahn. Su plan de crear una “red de redes” se
basaba en tres pilares básicos:

● No debía existir un control centralizado


● La red debería estar optimizada para cualquier sistema operativo y aplicación.
● La red debería ser capaz de recoger paquetes de datos y transportarlos a su destino,
independientemente del contenido y formato de esos datos.

Entre 1974 y 1981 se definió el protocolo entre ordenadores TCP/IP (Transmission Control
Protocol/internet Protocol), todavía hoy en uso. Este complejo sistema de protocolos
informáticos permite que los ordenadores puedan conectarse entre sí, independientemente
del sistema operativo de esas máquinas.

En 1984, un ingeniero británico, Tim Berners Lee, empezó a trabajar en un proyecto para el
CERN (Conseil Européen pour la Recherche Nucléaire) de Ginebra, con el objetivo de crear
un sistema de búsqueda y recuperación de información.

Berners-Lee y su equipo querían crear un sistema descentralizado basado en la idea del


hipertexto (documentos enlazados a otros documentos) que pudiera abarcar a todo Internet.
Ese sistema acabaría siendo la World Wide Web que vio la luz a comienzos de la década de
los noventa del siglo XX.

Este es el esquema que presentó Berners-Lee a sus jefes del CERN en el que explicaba cómo iba a
funcionar la WWW.

Berners-Lee consiguió los siguientes objetivos, necesarios para el desarrollo global de la


WWW:
● Inventar un sistema para que cada página web tuviera una identificación y una
dirección que pudiera leer cualquier máquina: URL (Uniform Resource Locator).

● Diseñar un protocolo que permitiera que los ordenadores (clientes y servidores)


pudieran comunicarse entre sí y servir documentos. Es el Hypertext Transport
Protocol: el http con el que comienza cualquier dirección web.

● Crear un software que permitiera a los usuarios navegar y editar páginas web.
Navegadores como Mosaic, Netscape, Explorer etc.

● Conseguir un lenguaje estandarizado para las páginas web, de forma que pudieran
ser visualizadas por cualquier navegador: HTML o HyperText Markup Language

Internet no es lo mismo que la Web


Internet, la WWW o las Redes sociales no son sinónimos. Internet no es Google o Facebook
o YouTube. Internet es una red global de ordenadores, interconectados mediante el
protocolo TCP/IP.

La World Wide Web o simplemente “web” es un sistema de distribución de información


basado en documentos entrelazados (texto, fotos, vídeos etc.), que son accesibles a través
de Internet, mediante un protocolo HTTP.

Una metáfora muy utilizada es que Internet es una red de autopistas y la WWW uno de los
coches que circulan por ella. Aparte de la web, usamos Internet para enviar emails (SMTP),
transferir ficheros por FTP o mediante redes P2P, aplicaciones de smartphones, mensajería
instantánea, transmisión de señales de audio y vídeo…

2.2 La Web 2.0: el software social

El término Web 2.0 nace a mediados de 2004 y debe su origen a una tormenta de ideas entre
los equipos de O’Reilly Media y MediaLive International.

Pese a haber sufrido el estallido de la “burbuja puntocom” en 2000, la web estaba lejos de
estar parada, al contrario, estaba más viva que nunca. Dale Dougherty de O’Reilly Media
llamó a esa nueva web, Web 2.0. Fruto de esta tormenta de ideas se organizó la Web 2.0
Conference en octubre de 2004.

En septiembre de 2005, Tim O’Reilly publicó un artículo pionero en el que describe la nueva
web social: “What is Web 2.0. Design Patterns and Business Model for the next generation of
software”.
Los nuevos términos que van a definir la web 2.0 son:

● Software social

● Arquitectura de la participación

● Contenidos generados por los usuarios

● Aplicaciones en la red

● Etiquetas y sindicación de contenidos

● Los siete principios de la Web 2.0

● La World Wide Web como plataforma

● El fortalecimiento de la inteligencia colectiva

● La gestión de las bases de datos como competencia básica

● El fin del ciclo de las actualizaciones de software

● Programación ligera y búsqueda de la simplicidad

● El software no limitado a un solo dispositivo

● Las experiencias enriquecedoras de los usuarios

La WWW como plataforma


El modelo de la industria del software (Microsoft, Adobe o Apple por ejemplo) se basaba en
paquetes con derechos propietarios, licencias y venta bajo el régimen de obsolescencia
planificada: el usuario compraba su caja con los discos de una versión de software que se
actualizaba cada tiempo determinado.

Las nuevas empresas 2.0 empiezan a ofrecer software gratuito, con la Web como
plataforma: las herramientas y sus contenidos existen en la propia Web y no en la
computadora del usuario.

Aprovechar la inteligencia colectiva


Las nuevas herramientas de la web 2.0 son fáciles de usar y hacen posible publicar y
distribuir contenido a cada usuario.
En el entorno Web 2.0, encontramos diferentes tipos de usuarios: los más tradicionales y
pasivos que navegan por la red y los que crean y aportan contenidos. Cada link aportado por
un usuario contribuye al crecimiento y el enriquecimiento de la red.

La gestión de las bases de datos como competencia básica


Lo más valioso de las aplicaciones Web 2.0 son los datos, ya que la mayoría de los casos el
software es un programa de código abierto o de fácil implementación.
Se trata de obtener una masa crítica de usuarios que produzcan un volumen de datos de
gran valor.

Poseer esta información clave y usuarios co-desarrolladores otorga valor comercial al


producto. Todos las nuevas herramientas se consideran en “beta permanente”. No ofrecen
su última versión sino están en constante desarrollo dependiendo de las necesidades de los
usuarios.

El fin del ciclo de las actualizaciones de versiones del software


El nuevo software de la web 2.0 se entiende como un servicio no como un producto con
fecha de caducidad.

Aparece además el concepto de “mashup”: una aplicación híbrida que usa y combina datos
y funcionalidades procedentes de una o más fuentes. Se usan a menudo APIs abiertos y
fuentes de datos (de Google Maps por ejemplo) para producir resultados diferentes a las
aplicaciones originales.

Modelos de programación ligera: búsqueda de la simplicidad


Se intenta reducir la complejidad, evitando las excesivas especificaciones y funciones del
software empaquetado de las que muchas veces el usuario solo maneja un porcentaje
ínfimo.

Además de la movilidad, la sindicación –que consiste en el etiquetado de contenidos para


su distribución automática a través de diferentes plataformas– evita tener que navegar por
los sitios originales, facilitando la tarea de lectura de los contenidos usando herramientas
como Feedly o gReader.

El software no limitado a un solo dispositivo


Las nuevas herramientas de software están pensadas también para usar en móviles y
tabletas. La Web 2.0 se desarrolla también en movilidad: Desde 2014, las conexiones a
Internet por móvil son superiores a las de ordenador de escritorio.

Otra herramienta que permite la creatividad de los usuarios son los blogs: son fáciles de
usar, tienen un bajo coste o a veces son gratuitos, son interactivos, humanizan a las
organizaciones, son creíbles, inmediatos, directos e infecciosos, pueden ser consultados por
los periodistas, no son intrusivos, otorgan autoridad e influencia, y permiten llegar a
audiencias que han abandonado otros medios.

Las experiencias enriquecedoras de los usuarios


YouTube, Flickr, Instagram o TikTok facilitan que los usuarios publiquen vídeos (originales o
no) y fotografías y permiten que éstas sean vistas por millones de usuarios.

Esa capacidad de creación del usuario que tiene la web 2.0 obliga a replantear los
esquemas de creación de productos informativos o culturales. En We the Media, de Dan
Gillmor , publicado en 2004, se intenta analizar la relevancia de las aplicaciones de escritura
colaborativa en el nuevo periodismo.

Gillmor afirma que “mis lectores saben más que yo” y cree que este tipo de informaciones
ajenas a los intereses comerciales de los grandes medios pueden crear un nuevo tipo de
periodismo “ciudadano” que atienda a su propia agenda informativa.

2.3 Evolución conceptual de la WWW


La Web tal y como fue diseñada por Tim Berners Lee ha evolucionado y su transformación
no se ha detenido en la llamada “web social”. A partir de 2014 (cuando las conexiones con
móvil superan a las de PC) entramos en la Web móvil en la que la navegación se plantea
únicamente mediante smartphones, originando una nueva evolución de los contenidos y el
diseño.

Otra de las líneas de la web (ya anticipada por Berners Lee) es la llamada web semántica,
también denominada por algunos autores como la web 3.0. La web semántica, según el
Web Consortium, implica que la web tiene la capacidad de construir una base de
conocimiento sobre las preferencias de los usuarios y que, a través de una combinación
entre esta capacidad y la información disponible en Internet, es capaz de atender de forma
exacta las demandas de información por parte de los usuarios en relación, por ejemplo, a
reserva de hoteles, vuelos, médicos, libros, etc. Estamos hablando de software inteligente
que es capaz de deducir a través de los datos obtenidos en la red y sacar conclusiones.

Para algunos expertos, la web 4.0 ya está aquí o más bien, está a punto de llegar. La Web 4.0
se define como una web abierta, conectada, predictiva e inteligente que aspira a ofrecer
soluciones específicas al usuario, basándose tanto en la información que este da o ha dado
como en toda la que ya existe en la web.

El concepto de Web 4.0. se sostiene sobre cuatro pilares fundamentales:

La comprensión del lenguaje natural (NLU) y tecnologías Speech-to-text. Estas técnicas


convierten el lenguaje en texto (y viceversa) y, mediante un análisis semántico y
morfológico, crean representaciones semánticas sin ambigüedades. Así, la máquina puede
responder como si prácticamente fuera humana.
Uso de la información de contexto e historial del usuario. La web 4.0 irá más allá de la
geolocalización o de otros aspectos ahora posibles y contará con nuevas capacidades
analíticas de supercomputación. Nuevas generaciones de Inteligencia Artificial (IA) y Big
Data que permitirán determinar, por ejemplo, la actitud del usuario a través de wearables que
monitorizan el ritmo cardíaco o a través de técnicas de minería de datos como el sentiment
analysis.

Nuevos modelos de comunicación máquina-máquina (M2M). La red 4.0 estará formada por
agentes inteligentes que, operando de forma autónoma en la nube, podrán comunicarse
entre sí y delegar la respuesta al agente adecuado.

Nuevos modelos de interacción con el usuario. Juegan en este punto un papel importante la
preponderancia de uso de dispositivos móviles (Mobile First), los bots, el Internet de las
Cosas (IoT) y otras tecnologías como el reconocimiento facial, sistemas biométricos, chips
subcutáneos, chips de retina, vehículos autónomos… Aprendizajes automáticos como deep
learning y machine learning suponen un importante impulso tecnológico en este sentido

La Web 4.0 supondrá considerar internet prácticamente como una necesidad básica.
Cambiará la forma de trabajar, de vivir y de consumir de las personas. Transformará también
la industria y la manera en que las empresas producen, ofrecen productos y prestan
servicios.

Pero, dejando conceptos aparte, lo que condiciona la web actual es la concentración del
poder tecnológico y económico en unas pocas manos, concretamente cuatro. Son las
llamadas empresas GAFA: Google, Apple, Facebook y Amazon.

Estas cuatro compañías controlan lo que buscamos, lo que compramos, la publicidad que
consumimos y la visión de la realidad que tenemos. Además, ingresan anualmente unos
800.000 millones de dólares y tienen una capitalización bursátil de 4,7 billones.

En julio de 2020, los directivos de las cuatro empresas comparecieron juntos durante seis
horas ante el comité antimonopolio del Congreso de Estados Unidos. Se trataba de
averiguar si controlaban la competencia en campos como las búsquedas en Internet
(Google), la venta online (Amazon), la comercialización de aplicaciones para móviles (Apple)
o la distribución de información (Facebook).

En octubre de 2020, los congresistas publicaron un informe en el que concluyeron que las
GAFA usan prácticas de monopolio de mercado, ya que al controlar la infraestructura de la
era digital, "han vigilado" a otras empresas para identificar rivales potenciales y, en última
instancia, "han comprado, copiado o eliminado sus amenazas competitivas". Los
congresistas recomendaban endurecer la legislación para controlarlas afirmando que
“nuestra democracia está en juego”. Si la recomendación llega a concretarse, la opción más
obvia es que se obligue a estas compañías a fragmentarse para acabar con su posición de
guardianes del mercado.
Este escenario ha sido calificado por la economista Soshana Zuboff como “capitalismo de
vigilancia”. Zuboff investiga el momento exacto en el que Google, en un afán de monetizar
los resultados de su buscador, empieza a analizar y explotar los datos de los usuarios. Este
análisis iría refinándose hasta llegar a predecir (y modificar) el comportamiento del
consumidor a través de un algoritmo opaco. Zuboff asegura que el capitalismo de la
vigilancia “reclama experiencias humanas privadas para convertirlas en datos de
comportamiento e integrarlas al mercado”.

Este modelo, creado por Google, se extendió posteriormente a Facebook y el resto de las
redes sociales. Zuboff insiste en que la tecnología digital no es la culpable de esta situación,
sino el uso que ciertas empresas han hecho de esta tecnología.

El “capitalismo de vigilancia” se está extendiendo de las redes sociales hasta campos


como la educación, la salud, las finanzas o la política. Zuboff, al igual que los congresistas
de EEUU o los eurodiputados de Bruselas, reclama más legislación y más control pero
también una reflexión sobre qué futuro tecnológico queremos como sociedad.

El padre de la web, Tim Berners Lee ya ha dado la voz de alarma sobre el oscuro rumbo de la
www y denunció en 2016 que la red "se ha convertido en un motor de inequidad y división;
dominada por fuerzas poderosas que la utilizan para sus propias agendas". En colaboración
con el MIT, Lee ha creado la plataforma Solid, un proyecto de código abierto para "restaurar
el poder y la agencia de los individuos en la web".

La finalidad básica de Solid es cambiar el modelo actual en cuanto a los datos de los
usuarios dándole a los individuos un control absoluto sobre sus datos, sean personales o
no, de una forma directa. Eso se consigue, según ha explicado el padre de la World Wide
Web, ofreciendo a cada usuario la posibilidad de elegir dónde se almacenan los datos, qué
personas y grupos específicos pueden acceder a determinados elementos y qué
aplicaciones utiliza.
Y todo de una forma descentralizada. Esto significa que no hay un lugar central para
registrarse en este sistema. Que nadie controla los datos de todos. Sin embargo, sí se puede
registrar una identidad y obtener un PoD en un servidor Solid, nuestro lugar de
almacenamiento personal. Esta identidad, será nuestra credencial en internet. Nuestra
manera de iniciar sesión en los sitios compatibles, como si lo hiciésemos con nuestro
correo o conectando la cuenta con una de nuestras cuentas en redes sociales, por ejemplo.

Berners Lee también ha creado Inrupt, una plataforma para comercializar y extender Solid.
En los últimos años, Solid ha sido probado con éxtio en grandes entidades en Europa como
la BBC y el Servicio Nacional de Salud en el Reino Unido, además del Gobierno de Flandes en
Bélgica.

Otro de los aspectos que también preocupa a los creadores de la www es la falta de
apertura que crea el uso de las redes sociales. Si Internet originalmente se entendía como
una red que permitía que nos comunicáramos globalmente, ahora Facebook y Twitter
funcionan como “burbujas aisladas” en la que los usuarios sólo disfrutan de los relatos,
ideas y personajes que les resultan placenteros y rechazan e ignoran todo aquello que puede
contradecir sus creencias.

Un estudio de tres sociólogos italianos realizado en 2016 demuestra las llamadas “cámaras
de eco” de Facebook. Los usuarios de diferentes comunidades tienden a no interactuar
entre sí y sólo se conectan con amigos de mentalidad y perfil parecidos, creando grupos
cerrados.

Los contenidos que seguimos o que se nos ofrecen en Facebook, están basados en nuestro
comportamiento: clicks o likes pasados. Lo que hacen los algoritmos de Facebook es
intentar aumentar el “engagement” o compromiso del usuario con la red social para que
crezca el tiempo y la atención que dedicamos a su plataforma.

Para conseguir esto, se nos ofrecen solamente historias que van a encajar con nuestra
manera de ver el mundo.

Google también filtra los resultados de las búsquedas que ofrece basándose en la
localización y las búsquedas y clicks previos. De esta manera el algoritmo aumenta la
efectividad de sus búsquedas pero también las restringe sin que el usuario sea informado
de ello.

Facebook e Instagram se están convirtiendo en “jardines vallados” donde se intenta que el


usuario permanezca el mayor tiempo posible sin acceder a otros recursos de la www. Para
muchos usuarios, Facebook o Instagram se han convertido ya en sinónimos de Internet.

También podría gustarte