Documentos de Académico
Documentos de Profesional
Documentos de Cultura
LA ÉPOCA DE
INTERNET, 1.
Luis Fernández-Castañeda
Alonso, Enrique: El nuevo Leviatán. Una historia política de la Red, Díaz Pons,
2015.
El futuro que se barrunta en estos dos libros, sin ser totalmente oscuro, deja poca
puerta abierta a la esperanza. Por un lado, el gobierno de Internet estará cada vez
más dirigido por los grandes intereses empresariales. Por otro, Internet ha creado
una infinidad de datos que serán (y son) empleados para conocer la conducta
humana con el fin de sacar provecho económico mediante modelos matemáticos.
Tenemos, por tanto, una red que favorece determinados tráficos, y modelos
matemáticos que emplean ese tráfico para la ganancia empresarial. Por el camino
queda la neutralidad de la Red y las injusticias que se derivan del empleo de estos
modelos. Frente a esta doble amenaza, todavía no ha cuajado ninguna teoría capaz
de abrir nuevos horizontes en interés del ser humano. Todo lo que tenemos está
gastado y no da más de sí.[1]
Pasaremos revista en primer lugar al libro de Enrique Alonso, que no puede ofrecer
más en menos páginas. Una segunda parte de esta recensión la dedicaremos al libro
de Cathy O’Neil.
Alonso distingue tres etapas en la historia de Internet, que seguiremos aquí como
modelo para desentrañar quién controla la Red, objetivo prioritario de esta
recensión y de buena parte de su libro.
La arquitectura libre de escala (scale-free net) que caracteriza a la Red nace aquí.
Se trata de que la información pueda llegar por muchos caminos diferentes,
evitando en lo posible cuellos de botella, de modo que siempre pueda encontrarse
una vía libre para la transmisión de la información. Pero lo interesante es que este
diseño no responde tanto al resultado de imaginar un ataque masivo, cuanto a
solucionar las diferencias entre las máquinas que debían ser puestas en red. Basta
consultar la historia del centro estratégico de Cheyenne Mountain en Wikipedia
para comprobar que las incompatibilidades entre equipos fueron un grandísimo
problema para la defensa. Licklider, que en 1960 había publicado un texto
visionario (Man-Computer Symbiosis) sobre la posibilidad de integrar el trabajo
humano y el de las computadoras, desarrollando el concepto de interfaz, se da
cuenta de que lo que tiene entre manos es más que un problema militar. Encontrar
un lenguaje común a todas las máquinas que debían ser puestas en red fue en
adelante una de sus obsesiones.[3] Desde la IPTO se lanza la primera conexión en
red en 1969, que en adelante forma la red ArpaNet.
Pero lo más importante va a ser el modo en que se trabaja desde estos inicios, ya
que será el origen de la “división de poderes” en el control de la futura Internet.
Cuando se lograban equipos humanos que funcionaban bien, en lugar de
imponerles una jerarquía externa, ellos mismos constituían un escalón jerárquico.
Esto se facilitaba también porque ARPA respondía directamente ante el Secretario
de Defensa, y no ante la cúpula militar, lo que a su vez permitió la expansión de la
Red. De haber sido un proyecto controlado por el ejército, hubiera quedado en su
posesión y se hubiera restringido a usos militares.[4]
Otra institución clave nace en esta época. Se trata de la IANA (Internet Assigned
Numbers Authority). La IANA adquiere plena consistencia en 1990 (RFC-1060).
Se encarga de llevar el registro de los nombres de dominio y de sus
correspondientes direcciones en Internet (la dirección IP).
-en primer lugar, los gastos de viaje y estancia corren por cuenta del participante.
-en segundo lugar, hay que pagar una cuota de inscripción de unos 700 dólares por
reunión.
-en tercer lugar, el recién llegado tiene a un miembro sénior que hace de tutor para
evitar que se infiltren personas con intereses descaradamente corporativos o bien
poco afines a los que en ese momento tiene la IETF.
-en cuarto lugar, la rutina de trabajo no se desarrolla en las reuniones, sino a través
de listas de correo controladas por la cúspide de la ISOC. El consejo de
administración de la ISOC (compuesto por 13 miembros) delega la creación,
mantenimiento y supresión de los grupos de trabajo que darán lugar a una nueva
RFC a la IESG (Internet Engineering Steering Group). La IESG nombra una serie
de directores de área como responsables inmediatos de estos grupos de entre los
miembros de la IETF, con dos años de duración. De esta forma se consigue, por
una parte, conservar el trabajo abierto, creativo y colaborador de los primeros
tiempos, pero se controlan los objetivos a alcanzar. Un grupo de trabajo que
plantee una reescritura del código que no coincida con los objetivos prioritarios
fijados por la ISOC tendrá, pues, muchas probabilidades de no salir adelante. No
hay aquí democracia ninguna, y menos aún participación ciudadana: “hablar de un
gobierno democrático sometido al principio de representación no parece aceracrse
ni de lejos a la realidad que estamos describiendo.”[9]
Generic Top Level Domains (GTLD). Aquí se incluyen los “.com”, “.org”, “.edu”,
pero también otros como “.photos”, “.sexy”, etc. Su gestión está en manos de
compañías seleccionadas en un proceso competitivo organizado por la ICANN.
VerSign, por ejemplo, gestiona los dominios “.com”. Cada vez que realizamos una
consulta se recurre, de un modo u otro, a este nivel. Actualmente son 13 las
instalaciones existentes para la gestión de estos dominios, ubicadas en su mayoría
en los Estados Unidos. Las empresas que los controlan subcontratan a otras los
trabajos de supervisión y mantenimiento, pero el control final recae en la ICANN,
que a su vez depende del Departamento de Comercio de los Estados Unidos. El
control, pues, es netamente gubernamental y norteamericano.
Country Cod Top Level Domains (CCTLD). Son los destinados a identificar al
país al que se adscribe la máquina a la que corresponde el dominio.
Internationalized Domain Names (IDN). Son como los CCTLD pero admiten
caracteres no latinos.
La W3C no admite, salvo excepciones, miembros a título individual, sino que está
formada por delegados de empresas que han decidido incorporarse a la
organización, pagando entre 1.000 y 68.000 dólares anuales, dependiendo del tipo
y capitalización de la empresa. No falta ninguna empresa
de hardware o software de cierto tamaño, así como organismos públicos y de
investigación. La W3C consiguió casi de inmediato el reconocimiento general. Su
tarea se centra en extender el uso de la web lo más posible para todo tipo de
aplicaciones. Su principal figura sigue siendo Tim Berners-Lee, socio fundador.
RECAPITULACIÓN
“Si hubiera que identificar la forma de gobierno que en la actualidad tiene la Red
[...] sería precisamente esta: un gobierno de las partes mutuamente
interesadas”.[11] En su mayoría, las partes interesadas son agentes económicos que,
por tanto, no han sido elegidos por nadie ni rinden cuenta a los gobiernos salvo en
temas fiscales y legales. “La Red, al menos como ha llegado a nuestros días, no es
el producto de una sociedad deseosa de alcanzar la igualdad y el fomento de la
participación ciudadana: si responde a algo es al giro neoliberal experimentado
durante las dos últimas décadas del siglo XX, y es ahí donde se definen las líneas
maestras de su gobierno.”[12] Sin embargo, su gobierno responde a intereses tan
variados y contrapuestos que esto asegura cierto equilibrio. De haber sido
controlada por los gobiernos, quizá nos hubiera ido peor. [13] Ahora bien, este
sistema de equilibrios “no asegura un porvenir justo”.[14] Para la Red, no somos
ciudadanos sino usuarios. En cuanto usuarios, generamos una plusavalía
digital por el tiempo que empleamos en usar un recurso o una plataforma en la
Red. Debemos reclamar esta plusvalía a los gobiernos para generar un acceso
universal a la Red concebida como servicio público, y no como un bien de
consumo disponible en función de la renta individual. Es necesaria mayor
concienciación de la ciudadanía para exigir más a los gobiernos en este punto. Hay
que exigir también más transparencia y participación ciudadana en las instituciones
que controlan Internet.
[1]
“Las tesis e ideales que dieron forma a la sociedad occidental durante los
siglos XIX y XX están gastadas, no dan más de sí, y pese a la proliferación de
doctrinas imaginativas y por lo general bienintencionadas, ninguna posee en su
interior la carga de futuro que la ocasión requiere. Estamos huérfanos de teorías y
todo parece indicar que aún será así por un tiempo.” Alonso, p. 5.
[2]
En 1972 cambió su nombre por DARPA (Defense Advanced Research
Projects Agency).
[3]
Memorandum For Members and Affiliates of the Intergalactic Computer
Network, 1963.
[4]
De hecho, los militares se separaron de Internet en 1983 creando su propia red,
MilNet, que en los noventa pasó a ser NIPRNet. Forma parte de la Red de
Sistemas de Información de la Defensa (Defense Information Systems Network),
incluyendo otras redes de creciente seguridad para la transmisión de secretos:
SIPRNet y JWICS. Pero lo interesante es que se basan en la tecnología de
Internet, y no a la inversa. Lo mismo ocurre con la Intellipedia, un recurso para
los servicios de inteligencia basado en la tecnología de la Wikipedia, pero de uso
restringido... y mantenido por Google. Resulta muy interesante que el espionaje,
empezando por la CIA, se haya dado cuenta de que se consigue más
compartiendo información que limitándola. Sin duda las lecciones del 11 de
septiembre fueron muy duras. Esto incluye el riesgo de que otros conozcan la
información, pero ese riesgo actualmente se cuantifica y se rentabiliza (además
siempre ha habido riesgos). El riesgo más elevado proviene de la falta de
comunicación, parecen habler concluido algunos eminentes analistas. Cfr.
George, R.Z.; Bruce, J. B. (eds): Analyzing Intelligence, Georgetown University
Press 2014.
[5]
Agencia federal independiente creada por el Congreso en 1950 para el
desarrollo de la ciencia básica con las miras puestas en la seguridad y el liderazgo
de la nación. En 2016 disponía de un presupuesto de 7.500 millones de dólares y
es responsable del 24% de toda la investigación universitaria norteamericana.
(Cfr. https://www.nsf.gov/about/).
[6]
En 1984 se “trocea” AT&T para evitar el monopolio, y lo mismo ocurre con
British Telecom. La Comisión Europea establece en 1993 un margen para la
liberalización total de las telecomunicaciones, previsto para 1998.
[7]
Alonso, p. 120.
[8]
Alonso, p. 123.
[9]
Alonso, p. 129.
[10]
Alonso, p. 110.
[11]
Alonso, p. 187.
[12]
Alonso, pp. 189-190.
[13]
“Sería una ingenuidad reclamar una Red más controlada por unos poderes que
han perdido su credibilidad como herramientas de transmisión de la voluntad del
último sujeto de derechos, el ciudadano. Los casos en los que los gobiernos han
reclamado un mayor control no han dado lugar precisamente a experiencias de
progreso, sino por lo general a la imposición de medidas de censura y de
persecución de la libre expresión de los ciudadanos en la Red.” Alonso, p. 196.
[14]
Alonso, p. 193.