Está en la página 1de 10

QUIÉN CONTROLA LA RED.

LA ÉPOCA DE
INTERNET, 1.

Luis Fernández-Castañeda

Alonso, Enrique: El nuevo Leviatán. Una historia política de la Red, Díaz Pons,
2015.

O’Neil, Cathy: Weapons of Math Destruction, Crown, New York 2016.

El futuro que se barrunta en estos dos libros, sin ser totalmente oscuro, deja poca
puerta abierta a la esperanza. Por un lado, el gobierno de Internet estará cada vez
más dirigido por los grandes intereses empresariales. Por otro, Internet ha creado
una infinidad de datos que serán (y son) empleados para conocer la conducta
humana con el fin de sacar provecho económico mediante modelos matemáticos.
Tenemos, por tanto, una red que favorece determinados tráficos, y modelos
matemáticos que emplean ese tráfico para la ganancia empresarial. Por el camino
queda la neutralidad de la Red y las injusticias que se derivan del empleo de estos
modelos. Frente a esta doble amenaza, todavía no ha cuajado ninguna teoría capaz
de abrir nuevos horizontes en interés del ser humano. Todo lo que tenemos está
gastado y no da más de sí.[1]

Pasaremos revista en primer lugar al libro de Enrique Alonso, que no puede ofrecer
más en menos páginas. Una segunda parte de esta recensión la dedicaremos al libro
de Cathy O’Neil.

Alonso distingue tres etapas en la historia de Internet, que seguiremos aquí como
modelo para desentrañar quién controla la Red, objetivo prioritario de esta
recensión y de buena parte de su libro.

LA ETAPA ARCAICA (1958-1983)


El origen remoto de la Red es consecuencia del lanzamiento del Sputnik en 1957.
La Unión Soviética no sólo había conseguido ya la bomba atómica (1949), cuatro
años después de los americanos, sino que se había adelantado a los Estados Unidos
en la “carrera espacial”. La reacción norteamericana consistió, entre otras cosas,
en crear ARPA (Advanced Research Projects Agency, 1958)[2], agencia destinada
a mejorar las telecomunicaciones en el nuevo escenario global que el Sputnik ponía
de manifiesto. Se trataba de una iniciativa presidencial que intentaba responder a
la sensación de vulnerabilidad que había causado el primer satélite ruso, pues por
primera vez se mostraba que el espléndido aislamiento continental de los Estados
Unidos era vulnerable. El interés de los americanos se centra en crear una red de
comunicaciones capaz de sobrevivir a escenarios bélicos y nucleares en el propio
suelo. En 1962 el director de ARPA crea una división especializada en el uso de
las telecomunicaciones en la defensa estratégica, y la dota de una autonomía
similar a la que tenía ARPA frente a otras oficinas de la administración. Se
denomina IPTO (Information Processing Techniques Office). Al mando de Joseph
Carl Robnett Licklider, su objetivo es interconectar los tres centros estratégicos
entonces vitales para la defensa de EEUU: Cheyenne Mountain, el Pentágono y el
Cuartel General del Mando Estratégico del Aire.

La arquitectura libre de escala (scale-free net) que caracteriza a la Red nace aquí.
Se trata de que la información pueda llegar por muchos caminos diferentes,
evitando en lo posible cuellos de botella, de modo que siempre pueda encontrarse
una vía libre para la transmisión de la información. Pero lo interesante es que este
diseño no responde tanto al resultado de imaginar un ataque masivo, cuanto a
solucionar las diferencias entre las máquinas que debían ser puestas en red. Basta
consultar la historia del centro estratégico de Cheyenne Mountain en Wikipedia
para comprobar que las incompatibilidades entre equipos fueron un grandísimo
problema para la defensa. Licklider, que en 1960 había publicado un texto
visionario (Man-Computer Symbiosis) sobre la posibilidad de integrar el trabajo
humano y el de las computadoras, desarrollando el concepto de interfaz, se da
cuenta de que lo que tiene entre manos es más que un problema militar. Encontrar
un lenguaje común a todas las máquinas que debían ser puestas en red fue en
adelante una de sus obsesiones.[3] Desde la IPTO se lanza la primera conexión en
red en 1969, que en adelante forma la red ArpaNet.

Pero lo más importante va a ser el modo en que se trabaja desde estos inicios, ya
que será el origen de la “división de poderes” en el control de la futura Internet.
Cuando se lograban equipos humanos que funcionaban bien, en lugar de
imponerles una jerarquía externa, ellos mismos constituían un escalón jerárquico.
Esto se facilitaba también porque ARPA respondía directamente ante el Secretario
de Defensa, y no ante la cúpula militar, lo que a su vez permitió la expansión de la
Red. De haber sido un proyecto controlado por el ejército, hubiera quedado en su
posesión y se hubiera restringido a usos militares.[4]

Los primeros procedimientos regulados de Internet, sus “leyes”, se fijaron con el


nombre de Request for Comments (RFC) y desde entonces han seguido llevando
ese nombre. Cada nuevo “comentario” solucionando un problema nuevo o de una
RFC anterior se incorpora al canon como nueva RFC, adquiriendo
automáticamente un carácter de referencia. Este sistema de trabajo continuó
cuando en 1986 se crea la IETF (Internet Engineering Task Force) formada por
investigadores con financianción gubernamental vinculados a la Red, junto con
representantes de la industria y del mundo científico. Su objetivo es “hacer que
Internet funcione mejor”. Ella controla el proceso de creación y aprobación de las
RFC, y aunque no es el gobierno en la sombra de Internet, sí que es una especie de
Tribunal Supremo en lo que se refiere al código que regula la Red.

La RFC-675 (1974) es especialmente relevante porque en ella aparece el protocolo


de transmisión de los datos en la Red. (TCP, Transmission Control Protocol).
Siguiendo ideas anteriores, consiste en trocear el mensaje en unidades discretas
(bloques) que se envían a enrutadores que, a su vez, los dirigen a cualquier vía
libre en ese momento. De este modo no hace falta tener una conexión abierta entre
la máquina origen y la máquina destino durante todo el tiempo que dure la
transmisión. Perfeccionado por Vinton Cerf, este modo de transmisión expresa el
espíritu genuino de Internet: posibilitar una comunicación plural que no requiere
exclusividad de conexión y capaz de aumentar en potencia lo que sea necesario
(escalable). Consecuencia derivada y muy importante es que la transmisión queda
asegurada aunque fallen muchas vías de conexión, y que los bloques de datos se
tratan de modo “democrático”, pues todos tienen la misma prioridad. Esta es la
solución que prevaleció, aunque no fue fruto del consenso, sino de los gestores
de ArpaNet. (De hecho, incluso ArpaNet mantuvo su propio protocolo hasta 1983).
El Flag Day (1 de enero de 1983) conmemora el día en que todo el tráfico de
Internet pasó a estar regulado por el protocolo TCP/IP. El nombre alude al día en
que el Congreso adoptó la bandera norteamericana (14 de junio de 1777). Se
imponían unos criterios comunitaristas que escapaban, al menos en parte, a la
presión política y militar de la época, lo que fue un azar afortunado. A partir de
ese momento, quien deseara formar parte de ArpaNet sólo tenía que llegar a un
nodo ya integrado y conectarse al router mediante TCP/IP. Las redes locales que
aún se planteaban iniciativas propias se rindieron rápidamente a la evidencia.

ETAPA DE TRANSICIÓN (1984-1994)


Durante este período la intervención de las autoridades norteamericanas aún fue
notable. Hacia mediados de los 80 resulta evidente que la gestión de la Red no se
va a poder llevar a cabo como un proyecto a pequeña escala financiado por
DARPA en algunas universidades americanas. Por eso en 1984 la gestión de
ArpaNet pasa a la NSF (National Science Foundation)[5], que en 1985 crea
NSFNet. Liberada de todo uso militar (pues en 1983 la red militar, MilNet, se ha
separado de Internet), adopta exclusivamente el protocolo TCP/IP. Sin embargo,
por esa misma época se liberalizan las telecomunicaciones[6], y pronto surgen
empresas compitiendo como proveedoras de servicios de Internet. Se acusa a
NSFNet de favorecer a determinadas empresas, hasta que en 1995 cede el control
a manos privadas, en una situación más acorde con el mercado.

Otra institución clave nace en esta época. Se trata de la IANA (Internet Assigned
Numbers Authority). La IANA adquiere plena consistencia en 1990 (RFC-1060).
Se encarga de llevar el registro de los nombres de dominio y de sus
correspondientes direcciones en Internet (la dirección IP).

En 1992 nace la ISOC (Internet Society) con el objetivo de armonizar las


estructuras organizativas de la etapa anterior con los nuevos intereses
empresariales de las grandes corporaciones. Su función adquirirá especial
relevancia en la siguiente etapa.

ETAPA CONSTITUYENTE (1995- )

Si hasta fines del siglo XX el gobierno de la Red ha estado en manos de las


instituciones y grupos fundadores, con el nuevo siglo la situación va a cambiar. En
la década de los 90 las empresas contemplan el potencial de negocio de Internet y
comienzan a ofrecer portales de contenidos en la Red. Se producirá una
especulación en la Bolsa, un índice tecnológico bursátil (NASDAQ) y en 2000,
con el estallido de las puntocom y las ruinas derivadas, se comprueba que el futuro
está en los motores de búsqueda.

Durante esta etapa, la gobernanza de Internet experimenta un proceso de


parcelación peculiar. El hecho es que la responsabilidad de la Red se distribuye de
un modo que nadie conoce con claridad (basta ver los variados diagramas en la
Red que explican su estructura). Alonso analiza esta etapa distinguiendo la gestión
y control de cuatro capas o niveles en los que se puede dividir Internet: nivel físico,
de protocolos, de dominios y de web.

En la PRIMERA CAPA, el nivel físico, el control parece corresponder a


la ITU (International Telecommunication Union), que agrupa desde antiguo a las
grandes operadoras de telefonía y tiene una gran capacidad de interlocución con
gobiernos y corporaciones. La infraestructura física de la red se gobierna a través
de un sistema de acuerdos y alianzas estratégicas cambiantes entre compañías y
administraciones nacionales y transnacionales, que pugnan por recuperar parte de
un poder que saben perdido de antemano. A día de hoy, y tal como han funcionado
las cosas, parece claro que ninguna compañía o administración puede alcanzar la
hegemonía en este terreno. La liberalización de las telecomunicaciones ha puesto
el cable -resumen de la infraestructura física de la Red- en manos del mercado. Si
el paso de lo público a lo privado se ha hecho con facilidad y perfil bajo, el
movimiento inverso, de intentarse, sería sumamente ruidoso y problemático.

En la SEGUNDA CAPA, el nivel de los protocolos, el principal control parece


corresponder a la ISOC (Internet Society), que ocupa el lugar que antes detentaba
la IETF de forma autónoma. “El proceso más característico que tiene lugar en este
nivel de la gobernanza de la Red es de acogimiento o patronazgo por el cual una
institución preexistente viene a integrarse en una estructura de nivel superior que
se ocupa de garantizar su funcionamiento.”[7] Es lo que ocurrió con la IETF,
auténtico corazón de la ISOC y lugar donde se crea el código previo consenso de
sus miembros. La ISOC se formaliza en 1992, y la novedad es que ya no se financia
exclusivamente con capital público. La integran unos 65.000 socios a título
individual y más de 150 corporaciones de muy variado tipo. Sin embargo, y en
contra de la imagen que gusta dar de sí, la ISOC no está orientada al público. Ser
miembro a título individual (que en alguna modalidad de afiliación cuesta dinero)
no faculta para entrar en los grupos de trabajo y organismos que realmente deciden
las cosas (el Internet Society’s Advisory Council y el ISOC Board of Trustees). El
acceso de entidades públicas y privadas se hace según seis modalidades distintas.
La categoría de Platinum Contributor, por ejemplo, supone un desembolso de cien
mil dólares por año, y la de Small Business Member dos mil quinientos.[8] A todos
los efectos, es una institución asentada en Estados Unidos con una sede en Ginebra
y sometida a la legislación norteamericana.

Si antes se elaboraba el código teniendo en cuenta las necesidades que revelaban


los tecnólogos, ahora lo que se tiene en cuenta es la necesidad de la industria. Es,
pues, un código reconfigurado sobre todo para favorecer los intereses
empresariales de las corporaciones que forman parte de la organización. Y de ella
forman parte todas las grandes empresas relacionadas con la informática y las
telecomunicaciones.
¿Cómo se accede y se ejerce el control? El método es largo, pero muy ilustrativo.
En primer lugar, es la IETF la que redacta el código, actualizándolo con las
sucesivas normas RFC. La IETF se reúne unas tres veces al año. La participación
es abierta, pero las condiciones filtran en gran medida el tipo de participante:

-en primer lugar, los gastos de viaje y estancia corren por cuenta del participante.

-en segundo lugar, hay que pagar una cuota de inscripción de unos 700 dólares por
reunión.

-en tercer lugar, el recién llegado tiene a un miembro sénior que hace de tutor para
evitar que se infiltren personas con intereses descaradamente corporativos o bien
poco afines a los que en ese momento tiene la IETF.

-en cuarto lugar, la rutina de trabajo no se desarrolla en las reuniones, sino a través
de listas de correo controladas por la cúspide de la ISOC. El consejo de
administración de la ISOC (compuesto por 13 miembros) delega la creación,
mantenimiento y supresión de los grupos de trabajo que darán lugar a una nueva
RFC a la IESG (Internet Engineering Steering Group). La IESG nombra una serie
de directores de área como responsables inmediatos de estos grupos de entre los
miembros de la IETF, con dos años de duración. De esta forma se consigue, por
una parte, conservar el trabajo abierto, creativo y colaborador de los primeros
tiempos, pero se controlan los objetivos a alcanzar. Un grupo de trabajo que
plantee una reescritura del código que no coincida con los objetivos prioritarios
fijados por la ISOC tendrá, pues, muchas probabilidades de no salir adelante. No
hay aquí democracia ninguna, y menos aún participación ciudadana: “hablar de un
gobierno democrático sometido al principio de representación no parece aceracrse
ni de lejos a la realidad que estamos describiendo.”[9]

La TERCERA CAPA, el nivel de los dominios, es terreno de la ICANN (Internet


Corporation for Assigned Names and Numbers). Fue creada en 1998, tras haber
incorporado a su estrutura la IANA y tener el control de los registros locales de
dominios. Su historia es interesante. Cuando la NSF inició el proceso de
privatización de su red (la NSFNet) en 1995, adoptó una decisión de gran
trascendencia, que fue ceder la gestión de los nombres de dominio a una empresa
privada, Network Solutions, que cobraba cincuenta dólares anuales por el alquiler
de cada nombre, pasando una parte a la NSF. Esta medida originó lo que se conoce
como Guerra de los nombres de dominio, que termina en 1998 cuando se cede la
gestión de los nombres de dominio a la IANA. Esta medida fue adoptada ante el
riesgo que suponía que una única empresa tuviera control de todos los dominios
de la Red. En el 2000 el Departamento de Comercio de los Estados Unidos
reconoce finalmente a la ICANN la gestión de los dominios a través de la IANA.
Esta necesita de la estrecha colaboración con la IETF, dado que la gestión de los
dominios implica una constante revisión del código. IANA e IETF han acordado
un cierto reparto de responsabilidades.

La dirección de la ICANN está compuesta por 15 miembros elegidos por un


complejo procedimiento, en parte opaco. Sabemos que ocho de ellos (es decir, la
mayoría) son nombrados por un comité de nominaciones de compleja estructura,
formado en su mayor parte por empresas del sector relacionadas con los registros
regionales, aunque también lo integran cinco miembros que representarían a
usuarios del sector civil. Dado que las candidaturas para el comité directivo han de
contar con un apoyo financiero externo, la ICANN representa de facto a los
mercados.

La creación de una jerarquía de dominios ha sido labor de la IETF, y consta


básicamente de tres niveles gestionados con diferente criterio.

Generic Top Level Domains (GTLD). Aquí se incluyen los “.com”, “.org”, “.edu”,
pero también otros como “.photos”, “.sexy”, etc. Su gestión está en manos de
compañías seleccionadas en un proceso competitivo organizado por la ICANN.
VerSign, por ejemplo, gestiona los dominios “.com”. Cada vez que realizamos una
consulta se recurre, de un modo u otro, a este nivel. Actualmente son 13 las
instalaciones existentes para la gestión de estos dominios, ubicadas en su mayoría
en los Estados Unidos. Las empresas que los controlan subcontratan a otras los
trabajos de supervisión y mantenimiento, pero el control final recae en la ICANN,
que a su vez depende del Departamento de Comercio de los Estados Unidos. El
control, pues, es netamente gubernamental y norteamericano.

Country Cod Top Level Domains (CCTLD). Son los destinados a identificar al
país al que se adscribe la máquina a la que corresponde el dominio.

Internationalized Domain Names (IDN). Son como los CCTLD pero admiten
caracteres no latinos.

CUARTA CAPA, el nivel de la web (que es un entorno de Internet, www, y no


se debe confundir con Internet misma). El entorno web nace a partir de 1991, ya
que antes de esa fecha no es posible encontrar en la Red páginas web. La IETF no
supo reconocer el potencial de la web para Internet, y por eso transcurrió un tiempo
hasta que se publicaron los estándares RFC-1866 (1995) y RFC-1945 (1996) que
la regulan. Con la adopción del lenguaje HTML para la creación de páginas web
en 1995, y la renuncia a patentar el invento, Berners-Lee y otros expresan el
espíritu de comunicación libre que caracteriza a la Red en sus comienzos, y que
fue algo realmente revolucionario. Un año antes, en 1994, Berners-Lee crea
la W3C (World Wide Web Consortium) con el mismo objetivo que la IETF.
Albergada por el MIT (Massachusetts Institute of Technology), la universidad de
Keio (Japón) y el ERCIM (European Research Consortium for Informatics and
Mathematics), formado por un complejo entramado de empresas, instituciones y
personalidades, es un agente relevante en todo lo referido al código e
infraestructura de la Red. En todo ello, opina Enrique Alonso, “se está siguiendo
lo que parece un reparto razonable de las áreas de influencia heredado de unos
orígenes en los que la tecnología marcaba las distinciones, no la política.”[10]

La W3C no admite, salvo excepciones, miembros a título individual, sino que está
formada por delegados de empresas que han decidido incorporarse a la
organización, pagando entre 1.000 y 68.000 dólares anuales, dependiendo del tipo
y capitalización de la empresa. No falta ninguna empresa
de hardware o software de cierto tamaño, así como organismos públicos y de
investigación. La W3C consiguió casi de inmediato el reconocimiento general. Su
tarea se centra en extender el uso de la web lo más posible para todo tipo de
aplicaciones. Su principal figura sigue siendo Tim Berners-Lee, socio fundador.

RECAPITULACIÓN

“Si hubiera que identificar la forma de gobierno que en la actualidad tiene la Red
[...] sería precisamente esta: un gobierno de las partes mutuamente
interesadas”.[11] En su mayoría, las partes interesadas son agentes económicos que,
por tanto, no han sido elegidos por nadie ni rinden cuenta a los gobiernos salvo en
temas fiscales y legales. “La Red, al menos como ha llegado a nuestros días, no es
el producto de una sociedad deseosa de alcanzar la igualdad y el fomento de la
participación ciudadana: si responde a algo es al giro neoliberal experimentado
durante las dos últimas décadas del siglo XX, y es ahí donde se definen las líneas
maestras de su gobierno.”[12] Sin embargo, su gobierno responde a intereses tan
variados y contrapuestos que esto asegura cierto equilibrio. De haber sido
controlada por los gobiernos, quizá nos hubiera ido peor. [13] Ahora bien, este
sistema de equilibrios “no asegura un porvenir justo”.[14] Para la Red, no somos
ciudadanos sino usuarios. En cuanto usuarios, generamos una plusavalía
digital por el tiempo que empleamos en usar un recurso o una plataforma en la
Red. Debemos reclamar esta plusvalía a los gobiernos para generar un acceso
universal a la Red concebida como servicio público, y no como un bien de
consumo disponible en función de la renta individual. Es necesaria mayor
concienciación de la ciudadanía para exigir más a los gobiernos en este punto. Hay
que exigir también más transparencia y participación ciudadana en las instituciones
que controlan Internet.

[1]
“Las tesis e ideales que dieron forma a la sociedad occidental durante los
siglos XIX y XX están gastadas, no dan más de sí, y pese a la proliferación de
doctrinas imaginativas y por lo general bienintencionadas, ninguna posee en su
interior la carga de futuro que la ocasión requiere. Estamos huérfanos de teorías y
todo parece indicar que aún será así por un tiempo.” Alonso, p. 5.
[2]
En 1972 cambió su nombre por DARPA (Defense Advanced Research
Projects Agency).
[3]
Memorandum For Members and Affiliates of the Intergalactic Computer
Network, 1963.
[4]
De hecho, los militares se separaron de Internet en 1983 creando su propia red,
MilNet, que en los noventa pasó a ser NIPRNet. Forma parte de la Red de
Sistemas de Información de la Defensa (Defense Information Systems Network),
incluyendo otras redes de creciente seguridad para la transmisión de secretos:
SIPRNet y JWICS. Pero lo interesante es que se basan en la tecnología de
Internet, y no a la inversa. Lo mismo ocurre con la Intellipedia, un recurso para
los servicios de inteligencia basado en la tecnología de la Wikipedia, pero de uso
restringido... y mantenido por Google. Resulta muy interesante que el espionaje,
empezando por la CIA, se haya dado cuenta de que se consigue más
compartiendo información que limitándola. Sin duda las lecciones del 11 de
septiembre fueron muy duras. Esto incluye el riesgo de que otros conozcan la
información, pero ese riesgo actualmente se cuantifica y se rentabiliza (además
siempre ha habido riesgos). El riesgo más elevado proviene de la falta de
comunicación, parecen habler concluido algunos eminentes analistas. Cfr.
George, R.Z.; Bruce, J. B. (eds): Analyzing Intelligence, Georgetown University
Press 2014.
[5]
Agencia federal independiente creada por el Congreso en 1950 para el
desarrollo de la ciencia básica con las miras puestas en la seguridad y el liderazgo
de la nación. En 2016 disponía de un presupuesto de 7.500 millones de dólares y
es responsable del 24% de toda la investigación universitaria norteamericana.
(Cfr. https://www.nsf.gov/about/).
[6]
En 1984 se “trocea” AT&T para evitar el monopolio, y lo mismo ocurre con
British Telecom. La Comisión Europea establece en 1993 un margen para la
liberalización total de las telecomunicaciones, previsto para 1998.
[7]
Alonso, p. 120.
[8]
Alonso, p. 123.
[9]
Alonso, p. 129.
[10]
Alonso, p. 110.
[11]
Alonso, p. 187.
[12]
Alonso, pp. 189-190.
[13]
“Sería una ingenuidad reclamar una Red más controlada por unos poderes que
han perdido su credibilidad como herramientas de transmisión de la voluntad del
último sujeto de derechos, el ciudadano. Los casos en los que los gobiernos han
reclamado un mayor control no han dado lugar precisamente a experiencias de
progreso, sino por lo general a la imposición de medidas de censura y de
persecución de la libre expresión de los ciudadanos en la Red.” Alonso, p. 196.
[14]
Alonso, p. 193.

También podría gustarte