Está en la página 1de 7

Internet profunda

NSA's crawler FACEBOOK GOOGLE EXIT RELAY YOU 203.0.113.254 198.51.100.3 EXIT RELAY 198.51.112.1 192.0.2.10
NSA's crawler
FACEBOOK
GOOGLE
EXIT RELAY
YOU
203.0.113.254
198.51.100.3
EXIT RELAY
198.51.112.1
192.0.2.10
198.51.112.1
Poland
Germany
95.51.99.22
81.169.207.228
France
United States
178.32.172.126
209.236.66.136
Sweden
Ukraine
Germany
193.11.164.242 Russia
93.180.157.154
91.213.8.84
217.160.78.95

Representación del internet profundo

Se le conoce informalmente como Internet profunda

o Internet invisible (en inglés: Deepweb, Invisible Web,

Deep Web, Dark Web o Hidden Web) a una porción pre- sumiblemente muy grande de la Internet que es difícil de rastrear o ha sido hecha casi imposible de rastrear y de- liberadamente, como lo es el caso del Proyecto Tor, caso en el cuál ha sido hecha de ésta manera vía usando méto- dos poco convencionales, cómo con la proxyficación con muchos proxys, el no utilizar direcciones de Internet, sino códigos y el utilizar el pseudodominio de nivel superior .onion, la cuál fue creada por la Armada de los Estados Unidos como una prueba y ahora es aprovechada por de- lincuentes cibernéticos. [1]

Se le conoce así a todo el contenido de Internet que no forma parte del Internet superficial, es decir, de las pági- nas indexadas por las redes de los motores de búsqueda de

la red. Esto se debe a las limitaciones que tienen las redes

para acceder a todos los sitios web por distintos motivos. La mayor parte de la información encontrada en la Inter- net Profunda está enterrada en sitios generados dinámi- camente y para los motores de búsqueda tradicionales es

difícil hallarla. Fiscales y Agencias Gubernamentales han calificado a la Internet Profunda como un refugio para la delincuencia debido al contenido ilícito que se encuentra en ella. [2]

1 Origen

La principal causa de la existencia de la Internet profunda es la imposibilidad de los motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran parte de

la información existente en Internet. Si los buscadores tu-

vieran la capacidad para acceder a toda la información entonces la magnitud de la “Internet profunda” se redu-

1

ciría casi en su totalidad. No obstante, aunque los mo- tores de búsqueda pudieran indexar la información de la Internet Profunda esto no significaría que ésta dejará de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y sólo determinados usuarios, aquellos con contraseña o códigos especiales, pueden hacerlo.

Los siguientes son algunos de los motivos por los que los

buscadores son incapaces de indexar la Internet profunda:

Páginas y sitios web protegidos con contraseñas o códigos establecidos.

Páginas que el buscador decidió no indexar: esto se da generalmente porque la demanda para el archivo que se decidió no indexar es poca en comparación con los archivos de texto HTML; estos archivos ge- neralmente también son más “difíciles” de indexar

y requieren más recursos. [3]

Sitios, dentro de su código, tiene archivos que le im- piden al buscador indexarlo.

Documentos en formatos no indexables.

De acuerdo a la tecnología usada por el sitio, por ejemplo los sitios que usan bases de datos. Para es- tos casos los buscadores pueden llegar a la interfaz creada para acceder a dichas bases de datos, co- mo por ejemplo, catálogos de librerías o agencias de gobierno. [3]

Enciclopedias, diccionarios, revistas en las que para acceder a la información hay que interrogar a la base de datos, como por ejemplo la base de datos de la RAE. [4]

Sitios que tienen una mezcla de media o archivos que no son fáciles de clasificar como visible o invisible (Web opaca).

La información es efímera o no suficientemente va- liosa para indexar. Es posible indexar está infor- mación pero como cambia con mucha frecuencia y su valor es de tiempo limitado no hay motivo para indexarla. [3]

Páginas que contienen mayormente imágenes, audio

o video con poco o nada de texto.

2

3 DENOMINACIÓN

Los archivos en formatos PostScript, Flash, Shockwave, ejecutables (.exe), archivos comprimi- dos (.zip,.rar, etc)

Información creada en páginas dinámicas después de llenar un formulario, la información detrás de los formularios es invisible.

Documentos dinámicos, son creados por un script que selecciona datos de diversas opciones para ge- nerar una página personalizada. Este tipo de docu- mentos, aunque sí se pueden indexar, no están en los motores de búsqueda porque en ocasiones puede ha- ber varias páginas iguales, pero con pequeños cam- bios, y las arañas web quedan atrapadas en ellos. [3]

Es un sitio aislado, es decir, no hay ligas que lo vin- culen con otros sitios y viceversa. [5]

Son subdirectorios o bases de datos restringidas.

2 Tamaño

La internet profunda es un conjunto de sitios web y bases de datos que buscadores comunes no pueden encontrar ya que no están indexadas. El contenido que puede ser hallado dentro de la Internet profunda es muy amplio. [6]

Se estima que la Internet Profunda es 500 veces mayor [7] que la Internet Superficial, siendo el 95% de esta infor- mación públicamente accesible.

El internet se ve dividido en dos ramas, La internet pro- funda y la superficial. El Internet superficial se compone de páginas estáticas o fijas, mientras que Web profunda está compuesta de páginas dinámicas. La páginas está- ticas no dependen de una base de datos para desplegar su contenido sino que residen en un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo contenido nunca cambia. Todos los cambios se rea- lizan directamente en el código y la nueva versión de la página se carga en el servidor. Estas páginas son menos flexibles que las páginas dinámicas. Las páginas dinámi- cas se crean como resultado de una búsqueda de base de datos. El contenido se coloca en una base de datos y se proporciona sólo cuando lo solicite el usuario. [8]

En 2010 se estimó que la información que se encuentra en

la Internet profunda es de 7,500 terabytes, lo que equivale

a aproximadamente 550 billones de documentos indivi-

duales. El contenido de la internet profunda es de 400 a 550 veces mayor de lo que se puede encontrar en la Inter- net superficial. En comparación, se estima que la Internet superficial contiene solo 19 terabytes de contenido y un billón de documentos individuales.

También en 2010 se estimó que existían más de 200,000 sitios en la internet profunda. [9]

Estimaciones basadas en la extrapolación de un estudio de la Universidad de California en Berkeley especula que

actualmente la Internet profunda debe tener unos 91 000 Terabytes. [10]

La ACM por sus siglas en inglés (Association for Com-

puting Machinery) publicó en 2007 que Google y Yahoo indexaban el 32 % de los objetos de la internet profunda,

y MSN tenía la cobertura más pequeña con el 11 %. Sin

embargo, la cobertura de lo tres motores era de 37 %,

lo que indicaba que estaban indexando casi los mismos objetos. [11]

Se prevé que alrededor del 95% del internet es internet profunda, también le llaman invisible u oculta, la infor- mación que alberga no siempre está disponible para su uso. Por ello se han desarrollado herramientas como bus- cadores especializados para acceder a ella. [5]

3 Denominación

Son páginas de texto, archivos, o en ocasiones informa- ción a la cual se puede acceder por medio de la World Wide Web que los buscadores de uso general no pueden, debido a limitaciones o deliberadamente, agregar a sus índices de páginas webs.

La Web profunda se refiere a la colección de sitios o bases de datos que un buscador común, como Google, no puede

o quiere indexar. Es un lugar específico del Internet que

se distingue por el anonimato. Nada que se haga en esta zona puede ser asociado con la identidad de uno, a menos que uno lo deseé. [12]

Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing, mencio- nó que Jill Ellsworth utilizó el término “la Web invisible” en 1994 para referirse a los sitios web que no están regis- trados por algún motor de búsqueda. [13]

Bergman citó un artículo de 1996 de Frank García: [14]

Sería un sitio que, posiblemente esté dise- ñado razonablemente, pero no se molestaron en registrarlo en alguno de los motores de bús- queda. ¡Por lo tanto, nadie puede encontrarlos! Estás oculto. Yo llamo a esto la Web invisible.

Otro uso temprano del término Web Invisible o web pro- funda fue por Bruce Monte y Mateo B. Koll de Personal Library Software, en una descripción de la herramienta @ 1 de web profunda, en un comunicado de prensa de diciembre de 1996. [15]

La importancia potencial de las bases de datos de bús- queda también se reflejó en el primer sitio de búsqueda dedicado a ellos, el motor AT1 que se anunció con bom- bos y platillos a principios de 1997. Sin embargo, PLS, propietario de AT1, fue adquirida por AOL en 1998, y poco después el servicio AT1 fue abandonado. [13]

El primer uso del término específico de web profunda, ahora generalmente aceptada, ocurrió en el estudio de

5.2 Tor

3

Bergman de 2001 mencionado anteriormente.

Por otra parte, el término web invisible se dice que es inexacto porque:

Muchos usuarios asumen que la única forma de ac- ceder a la web es consultando un buscador.

Alguna información puede ser encontrada más fá- cilmente que otra, pero ésto no quiere decir que esté invisible.

La web contiene información de diversos tipos que es almacenada y recuperada en diferentes formas.

El contenido indexado por los buscadores de la web es almacenado también en bases de datos y disponible solamente a través de las interrogacio- nes del usuario, por tanto no es correcto decir que la información almacenada en bases de datos es invisible. [16]

4 Rastreando la Internet profunda

Los motores de búsqueda comerciales han comenzado a explorar métodos alternativos para rastrear la Web pro- funda. El Protocolo del sitio (primero desarrollado e in- troducido por Google en 2005) y OAI son mecanismos que permiten a los motores de búsqueda y otras partes interesadas descubrir recursos de la Internet Profunda en los servidores web en particular. Ambos mecanismos per- miten que los servidores web anuncien las direcciones URL que se puede acceder a ellos, lo que permite la de- tección automática de los recursos que no están directa- mente vinculados a la Web de la superficie.El sistema de búsqueda de la Web profunda de Google pre-calcula las entregas de cada formulario HTML y agrega a las pági- nas HTML resultantes en el índice del motor de búsqueda de Google. Los resultados surgidos arrojaron mil consul- tas por segundo al contenido de la Web profunda. [17] Este sistema se realiza utilizando tres algoritmos claves:

La selección de valores de entrada, para que las en- tradas de búsqueda de texto acepten palabras clave.

La identificación de los insumos que aceptan sólo valores específicos (por ejemplo, fecha).

La selección de un pequeño número de combinacio- nes de entrada que generan URLs adecuadas para su inclusión en el índice de búsqueda Web.

5 Métodos de profundización

5.1 Las arañas (Web crawler)

Cuando se ingresa a un buscador y se realiza una consulta, el buscador no recorre la totalidad de Internet en busca de

las posibles respuestas, si no que busca en su propia base de datos, que ha sido generada e indizada previamente. Se utiliza el término "Araña web" (en inglés Web craw- ler) o robots (por software, comúnmente llamados “bots”) inteligentes que van haciendo búsquedas por enlaces de hipertexto de página en página, registrando la informa- ción ahí disponible. [18]

El contenido que existe dentro de la Internet profunda es

en muy raras ocasiones mostrado como resultado en los motores de búsqueda, ya que las “arañas” no rastrean ba-

ses de datos ni los extraen. Las arañas no pueden tener ac- ceso a páginas protegidas con contraseñas, algunos desa- rrolladores que no desean que sus páginas sean encontra- das insertan etiquetas especiales en el código para evitar que sea indexada. Las “arañas” son incapaces de mos- trar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un signo de in- terrogación. Pero ahora sitios web no creados con HTML

o con signos de interrogación están siendo indexados por

algunos motores de búsqueda. Sin embargo, se calcula que aún con estos buscadores más avanzados sólo se lo- gra alcanzar el 16% de la información disponible en la Internet profunda. Existen diferente técnicas de búsque- da para extraer contenido de la internet profunda como

librerías de bases de datos o simplemente conocer el URL

al que quieres acceder y escribirlo manualmente. [19]

5.2 Tor
5.2
Tor

Logo de tor

y escribirlo manualmente. [ 1 9 ] 5.2 Tor Logo de tor The Onion Router (abreviado

The Onion Router (abreviado como TOR) es un proyec-

to diseñado e implementado por la marina de los Esta-

dos Unidos lanzado el 20 de septiembre de 2002. Poste- riormente fue patrocinado por la EFF (Electronic Fron- tier Foundation, una organización en defensa de los de-

rechos digitales). Actualmente subsiste como TOR Pro- ject, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de ac- ceso y expresión en Internet manteniendo su privacidad

y anonimato. [5]

A diferencia de los navegadores de Internet convenciona-

les, Tor le permite a los usuarios navegar por la Web de

forma anónima. Tor es descargado de 30 millones a 50

4

8 REFERENCIAS

millones de veces al año, hay 800,000 usuarios diarios de Tor y un incremento del de 20 % en el 2013, Tor puede acceder a 6,500 sitios web ocultos. [20]

Cuando se ejecuta el software de Tor, para acceder a la Internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos (llamados “nodos” o “relays” en inglés) y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia. Tor cuenta con más de 4.000 retransmisiones y todos los datos cifrados pasan a través de -por lo menos- tres de estos relays. Una vez que la última capa de cifrado es retirado por un nodo de salida, se conecta a la página web que desea visitar.

El contenido que puede ser encontrado dentro de la inter- net profunda es muy vasto, se encuentran por ejemplo, da- tos que se generan en tiempo real, como pueden ser valo- res de Bolsa, información del tiempo, horarios de trenes; bases de datos sobre agencias de inteligencia, desidentes políticos y contenidos criminales. [21]

5.3 Bitcoin
5.3 Bitcoin

Logo de Bitcoin

Mercados ilegales están alojados en servidores que son exclusivos para usuarios de Tor. En estos sitios,se pueden encontrar drogas, armas, o incluso asesinos a sueldo. Se utiliza la moneda digital llamada Bitcoin, que tiene sus orígenes en 2009, pero que se ha vuelto todo un fenómeno desde 2012, [5] que se intercambia a través de billeteras digitales entre el usuario y el vendedor, lo que hace que sea prácticamente imposible de rastrear. [22]

Existen muchos mitos acerca de la internet profunda, la deep web no es una región prohibida y mística del In- ternet, ni que la tecnología relacionada es malévola. Ya que en ella también se alberga lo ahora conocido como (AIW), por sus siglas en inglés, “the Academic Invisible Web” La web académica invisible y se refiere a todas las bases de datos que contienen avances tecnológicos, publi- caciones científicas, y material académico en general. [23]

6 Recursos de la internet profunda

Los recursos de la Internet Profunda pueden estar clasifi- cados en las siguientes categorías:

Contenido de Acceso limitado: los sitios que limi- tan el acceso a sus páginas de una manera técnica

(Por ejemplo, utilizando el estándar de exclusión de robots o captcha, que prohíben los motores de bús- queda de la navegación por y la creación de copias en caché. [24]

Contenido Dinámico: Las páginas dinámicas que devuelven respuesta a una pregunta presentada o ac- ceder a través de un formulario, especialmente si se utilizan elementos de entrada en el dominio abierto como campos de texto.

Contenido No Vinculado: páginas que no están co- nectadas con otras páginas, que pueden impedir que los programas de rastreo web tengan acceso al con- tenido. Este material se conoce como páginas sin en- laces entrantes.

Contenido Programado: páginas que sólo son acce- sibles a través de enlaces producidos por JavaScript, así como el contenido descargado de forma dinámi- ca a partir de los servidores web a través de solucio- nes de Flash o Ajax.

Sin contenido HTML: contenido textual codificado en multimedia (imagen o video) archivos o formatos de archivo específicos no tratados por los motores de búsqueda.

Web privada: los sitios que requieren de registro y de una contraseña para iniciar sesión

Web contextual: páginas con contenidos diferentes para diferentes contextos de acceso (por ejemplo, los rangos de direcciones IP de clientes o secuencia de navegación anterior).

7 Véase También

.onion

I2P

Darknet

8 Referencias

[2] Grossman, Lev. «The Secret Web: Where Drugs, Porn and Murder Live Online» (en inglés). Consultado el 30 de octubre de 2014.

[3] Chris Sherman & Gary Price. «The Invisible Web: Un- covering Sources Search Engines Can't See» (en inglés). Consultado el 30 de octubre de 2014.

5

[4] Webactual.org (13 de abril de 2013). «El diccionario de la RAE pertenece a la internet invisible.». Consultado el 13 de mayo de 2013.

[5] Becerra Gutiérrez Juan Armando. «Mitos y realidades de la Internet profunda». Consultado el 30 de octubre de

2014.

[6] Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Technically the Deep Web refers to the collection of all the websites and databases that search engines like Google don't or can't índex».

[8] Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en in- glés). Consultado el 28 de octubre de 2014. «Surface Web is made up of static and fixed pages, whereas Deep Web is made up of dynamic pages. Static pages do not depend on a database for their content. They reside on a server waiting to be retrieved, and are basically html files whose content never changes.»

[9] Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en in- glés). Consultado el 28 de octubre de 2014. «Public infor- mation on the Deep Web is currently 400-550 times larger than the commonly-defined World Wide Web. The Deep Web contains 7,500 terabytes of information, compared to 19 on the Surface Web. Deep Web contains nearly 550 billion individual documents compared to one billion on the Surface Web. More than 200,000 Deep Web sites pre- sently exist.»

[11] He, Bin (1 de mayo de 2007). Communi- cations of the ACM (en inglés) http://eds.b. ebscohost.com/eds/pdfviewer/pdfviewer?sid=

40sessionmgr198&vid=6&hid=114 |url= sin título (ayuda). Consultado el 29 de octubre de 2014. «Google and Yahoo both indexed 32% of the deep Web objects, and MSN had the smallest coverage of 11%. However, there was significant overlap in what they covered: the combined coverage of the three largest search engines increased only to 37%, indicating they were indexing almost the same objects.»

[12] Grossman, Lev; Newton-Small, Roy & Stampler (No- viembre de 2013). «The Deep Web». Time 182 (20).

[13]

Bergman, Michael K. «White Paper: The Deep Web: Sur- facing Hidden Value» (en inglés). Consultado el 30 de oc- tubre de 2014.

[14] Garcia, Frank (January 1996). «Business and Marketing on the Internet». Masthead 9 (1). Archivado desde el ori- ginal el 5 de diciembre de 1996. Consultado el 24 de fe- brero de 2009.

[15] @1 comenzó con 5.7 terabytes de contenido, estima- do en 30 veces el tamaño de la naciente World Wide Web; PLS fue adquirida por AOL en 1998 y @1 fue

abandonado.«PLS introduce AT1, el servicio de la prime- ra “segunda generación” de búsqueda en Internet». Perso- nal Library Software. diciembre 1996. Consultado el 24 de febrero de 2009.

[16]

Llanes Vilaragut, Lourdes & Suárez Carro, Juan R. «Para acceder al web profundo: conceptos y herramientas». Consultado el 30 de octubre de 2014.

[17] Madhavan, Jayant; Ko, David; Kot, Lucja; Ganapathy, Vignesh; Rasmussen,Alex & Havely, Alon. «Google’s DeepWeb Crawl» (en inglés). Consultado el 30 de octubre de 2014.

[18]

«El inmenso océano del Internet profundo». El país. 25 de octubre. Consultado el 29 de octubre de 2014. «Cuando una persona realiza una consulta, el buscador no recorre la totalidad de Internet en busca de las posibles respuestas, lo cual supondría una capacidad de reacción bastante len- ta. Lo que hace es buscar en su propia base de datos, que ha sido generada e indizada previamente. En sus labores de búsqueda, indización y catalogación, utilizan las llama- das “arañas” o robots inteligentes que van saltando de una página web a otra siguiendo los enlaces de hipertexto y registran la información allí disponible.»

[19] Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en in- glés). Consultado el 28 de octubre de 2014. «The content of the Deep Web is rarely shown in a search engine result, since the search engine spiders do not crawl into databases and extract the data. These spiders can neither think nor type, but jump from link to link. As such, a spider cannot enter pages that are password protected. Web page crea- tors who do not want their page shown in search results can insert special meta tags to keep the page from being inde- xed. Spiders are also unable to pages created without the use of html, and also links that include a question mark. But now parts of the Deep Web with non-html pages and databases with a question mark in a stable URL are being indexed by search engines, with non-html pages conver- ted to html. Still, it is estimated that even the best search engines can access only 16 percent of information availa- ble on the Web. There are other Web search techniques and technologies that can be used to access databases and extract the content.»

[20] Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Unlike conventional Internet browsers, Tor’s allows users to surf the Web anonymously. Tor is down- loaded 30 million-50 million times a year • There are 800,000 daily Tor users--a Jump of 20% in the past year • Tor can access 6,500 hidden webside».

[21] «El inmenso océano del Internet profundo». El país. 25 de octubre. Consultado el 29 de octubre de 2014. «datos que se generan en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes».

[22] Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Bitcoin».

[23]

Lewandowski, Exploring the academic invisible web Dirk (11 de noviembre de 2013). Library Hi Tech (en inglés).

6

9 ENLACES EXTERNOS

«the Academic Invisible Web (AIW). We define the Aca- demic Invisible Web as consisting of all databases and co- llections relevant to academia but not searchable by the general-purpose internet search engines.»

[24]

«Hypertext Transfer Protocol (HTTP/1.1): Caching.» (en inglés). junio de 2014. Consultado el 30 de octubre de

2014.

9 Enlaces externos

7

10 Texto e imágenes de origen, colaboradores y licencias

10.1 Texto

Internet profunda Fuente: https://es.wikipedia.org/wiki/Internet_profunda?oldid=83584268 Colaboradores: Rosarino, Cookie, Petronas, Taichi, BOT-Superzerocool, EmuAGR, Cad, Vrysxy, Tipacoque, Montgomery, Bernard, Muro de Aguas, CommonsDelinker, Pólux, Tech- nopat, Barri, Bigsus-bot, Marcelo, Rowley, Inuyasha1111, Espilas, Thelmadatter, Eduardosalg, Leonpolanco, PetrohsW, PAOCOMPU, UA31, LucienBOT, Davidgutierrezalvarez, Arjuno3, Andreasmperu, Luckas-bot, Vivaelcelta, FedericoF, SuperBraulio13, Jkbw, Fresco- Bot, Manu Lop, RedBot, PatruBOT, Tarawa1943, Foundling, GrouchoBot, EmausBot, AVIADOR, Cessk, ZéroBot, Evasivo, HRoestBot, J. A. Gélvez, Grillitus, MadriCR, Waka Waka, MerlIwBot, KLBot2, AvocatoBot, Fredy2396, Travelour, MetroBot, Cesar476, Gusama Romero, LlamaAl, Asqueladd, DanielithoMoya, Idelbarro, YFdyh-bot, Neo cix, Paul2012owuu, Down1969, Balles2601, NymerosMartell, Ewrin21, Isabelaj, Hginio Diaz, Sasquacht, Krlitahg, Xliraa, Drackoplaymaster, Alan255, JacobRodrigues, Freison, Niki.fay, Cgonga, Bran- don Ramírez, Jai14aroxy, Starlin0823, Angela torres happy, Davidfuenmayor, SCARLETSREM, Ipleii, Joseandresnm, Jarould, Matiia, Egis57, Chamito31, One Faith, Suri Arreguin, Andrea Bobadilla, BenjaBot, Sacherk0p, Qwerytado, PLATANILLO777, AlejandroHer- nandez.00, DiegoCastilloPando, El Mate Verde, Otros modos, HuskyNet2015, Antonio Alcántara Barbadillo, Ppin666, Transparentio, Benja sarcazmo, LENNN111, Lyyely, MaguitoA.S., Javier94Ramos, Sorecrlon y Anónimos: 181

10.2 Imágenes

Archivo:Bitcoin_logo.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/c/c5/Bitcoin_logo.svg Licencia: CC0 Colaborado- res: Bitcoin forums Artista original: Bitboy

Archivo:Commons-emblem-question_book_yellow.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/d/dd/ Commons-emblem-question_book_yellow.svg Licencia: CC BY-SA 3.0 Colaboradores: <a href='//commons.wikimedia.org/wiki/File:

Commons-emblem-query.svg' class='image'><img alt='Commons-emblem-query.svg' src='//upload.wikimedia.org/wikipedia/commons/ thumb/c/c5/Commons-emblem-query.svg/25px-Commons-emblem-query.svg.png' width='25' height='25' srcset='//upload.wikimedia. org/wikipedia/commons/thumb/c/c5/Commons-emblem-query.svg/38px-Commons-emblem-query.svg.png 1.5x, //upload.wikimedia. org/wikipedia/commons/thumb/c/c5/Commons-emblem-query.svg/50px-Commons-emblem-query.svg.png 2x' data-file-width='48' data-file-height='48' /></a> + <a href='//commons.wikimedia.org/wiki/File:Question_book.svg' class='image'><img alt='Question book.svg' src='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/25px-Question_book.svg.png' width='25' height='20' srcset='//upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/38px-Question_book.svg.png 1.5x, //upload.wikimedia.org/wikipedia/commons/thumb/9/97/Question_book.svg/50px-Question_book.svg.png 2x' data-file-width='252' data-file-height='199' /></a> Artista original: GNOME icon artists, Linfocito B

Archivo:Deep_Web.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/8/8f/Deep_Web.svg Licencia: CC BY-SA 3.0 Cola- boradores: Este archivo se derivó de: F16 drawing.svg Artista original: Rezonansowy

Archivo:Tor-logo-2011-flat.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/1/15/Tor-logo-2011-flat.svg Licencia: CC BY 3.0 Colaboradores: https://media.torproject.org/image/official-images/2011-tor-logo-flat.svg Artista original: Tor Project

10.3 Licencia de contenido