Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TECNOLOGÍA EN SISTEMAS
SANTIAGO DE CALI
2015
EL MUNDO DE LA WEB PROFUNDA
YESID VALENCIA
MONOGRAFIA
TECNOLOGÍA EN SISTEMAS
SANTIAGO DE CALI
2015
NOTA DE ACEPTACION
___________________________________
___________________________________
___________________________________
___________________________________
___________________________________
___________________________________
______________________________________
Firma del Presidente del jurado
______________________________________
Firma del jurado
______________________________________
Firma del jurado
DEDICATORIA
A:
Dios, por darnos la oportunidad de vivir y por estar con nosotros en cada paso que
damos, por fortalecernuestros corazónes e iluminar nuestras mentes.
Damos gracias a nuestros padres y familiares por el apoyo incondicional; por confiar,
creer en nosotros y haber hecho de esta etapa de nuestras vidas un trayecto de
vivencias que nunca olvidaremos.
AGRADECIMIENTOS
A los Tutores , gracias; sin su ayuda y sus conocimientos hubiera sido imposible hacer
esto realidad; es un honor ser dirigido por personas tan profesionales y éticas como lo
son ustedes
Por todo lo que nos han brindado y por sus bendiciones; para todos muchas gracias y
que Dios los bendiga.
TABLA DE ILUSTRACIONES
Ilustración 3 - Esquema del proceso de indexado (Ezatdoost, Tourani, & Seyed Danesh,
2013)...........................................................................................................................19
....................................................................................................................................38
INDICE DE TABLAS
2014)...........................................................................................................................21
Vivimos en el siglo XXI la era de las tecnologías, los avances y progresos informáticos
en gran magnitud, y con tantos dispositivos puestos a nuestro alrededor como lo son la
tecnología móvil, los ordenadores, tablet, etc., que permiten al individuo relacionarse
más con ellas y con los que están alrededor del mundo, esto contribuye a la nueva
formación en el campo informático en la cual se deben afianzar sus conocimientos y
saber la importancia del manejo en estos tiempos, y todo esto se hace con base a la
Internet como un método rápido de investigación y de soluciones para cualquier
usuario.
En esa parte escondida que tiene la Internet es necesario tener en cuenta que su
acceso a la Deep Web no es tan fácil como parece ser, ya que requiere de un alto
conocimiento en el ámbito informático y comprender acerca del ingreso a ellas.
El acceso que podemos tener a una Deep Web o Internet escondido es a través de un
navegador llamado Tor que a su vez utiliza un proxy por el cual ingresaremos como
usuario anónimo a la red, sin afectar nuestra red, evitando que sea rastreada al realizar
una búsqueda por este navegador.
Manejar con claridad cada concepto que se va a redactar dentro de esta monografía, y
que el usuario entienda porque la importancia de su existencia, manejo y utilidad dentro
del ámbito social.
• OBJETIVOS
1. OBJETIVO GENERAL
1. OBJETIVOS ESPECÍFICOS
Profunda.
Web Profunda.
tenido en la sociedad.
•
• LA WEB PROFUNDA
• CONCEPTO GENERAL
Hoy en día gran parte de ese contenido es accesible mediante una serie de
dispositivos y hardware de fácil acceso, en donde se puede encontrar datos tan
comunes como los que se encuentran en los sitios de búsqueda conocidos (yahoo,
google, bing, etcétera), pero también se puede encontrar material muy sensible,
como venta de drogas, armas, secretos empresariales e institucionales que podrían
afectar el comportamiento político de un gobierno, incluso se puede encontrar venta
de personal humano, y pedofilia.
Por esto se busca regular, limitar, y en algunas ocasiones negar el acceso a estos
servicios, instituciones gubernamentales hacen una fuerte vigilancia a estos sitios
en busca de focos de actos ilegales, para que escándalos como el de The Silk Road
no vuelvan a generarse.
“La Deep web es el contenido secreto de Internet que no está visible para los
usuarios y que requiere vías distintas a los servidores tradicionales para llegar a sus
contenidos que no siempre son adecuados para las personas. Como se trata de una
red, lo primero que hemos de considerar es su carácter expansivo y el riesgo de
que tal expansión provoque consecuencias negativas, como ejemplo el espionaje.
Cuando aparecieron las bases de datos expuestas a la manipulación informática,
comenzaron los países a advertir un potencial peligro de ser puestos públicamente
aquellos secretos de Estado que forman parte de las políticas internas o que sus
figuras pasaran a ser parte de las críticas mundiales.
La privacidad ha hecho que la Deep web se convierta en una especie de clubs en
donde los usuarios deben ser invitados o estar codificados en un sistema de
adhesión específico. Los lenguajes con los cuales viaja la información son de
formatos que no pueden indexar y los documentos que se encuentran son en
general de carácter exclusivo.”
• ORIGEN Y CRECIMIENTO
La primera entrada en esta historia tiene que empezar con el Internet mismo y esa
historia inicia con J.C.R. Licklider, que en agosto de 1962 concibió en MIT "la Red
Galáctica", un conjunto de computadoras dispersas alrededor del mundo pero
interconectadas de modo que cualquiera pudiera acceder a datos y programas desde
cualquier sitio. Fue esa idea la que lo convirtió en el primer director del programa de
investigación DARPA en octubre de 1962 y fue la misma idea la que heredo a sus
sucesores Bob Taylor y Lawrence G. Roberts. Cuando Leonard Kleinrock publicò el
primer artículo sobre teoría de conmutación de paquetes en julio del 1961, el primer
paso hacia la soñada red fue inevitable. La siguiente aportación la dio el mismo
Lawrence Roberts al conectar dos computadores, TX-2 en Massachusetts y Q-32 en
California, mediante un teléfono de dial-up lento, creando la primera conexión de
amplio rango. Así, se descubrió que las computadoras conectadas podían trabajar
juntas, corriendo programas e intercambiando datos; pero que el circuito controlado por
el teléfono era más bien inadecuado, la conmutación de paquetes de Kleinrock era
necesaria.
Por este motivo, Kahn y Vint Cerf comenzaron a trabajar en los principios de
comunicación entre los distintos sistemas operativos que habrían de convertirse en el
protocolo TCP/IP. Una vez delineado, DARPA contrato a tres equipos para su desarrollo
que fueron Stanford (Cerf), BBN (Ray Tomlinson) y UCL (Peter Kirstein), alrededor de
un año después había tres implementaciones independientes que podían interpelar:
ARPANET, Packet Radio, y Packet Satellite que eventualmente evolucionaron hasta
incorporar todas y cada una de las formas de red y una amplia gama de comunidades
de investigación.
Este cambio de unas cuantas redes con una cantidad modesta de tiempo compartido,
el modelo ARPANET original a muchas redes, trajo consigo nuevos conceptos y
modificaciones en la tecnología subyacente.
Uno de los retos más interesantes fue la transición del protocolo NCP al TCP/IP, pues
se trataba de una conversión necesariamente simultánea. El primero de enero de 1983
la transición se dio de manera sorprendentemente simple después de años de
planeación. La adopción del protocolo TCP/IP como estándar de defensa llevo
directamente a la partición en comunidades militar MILNET y no-militar ARPANET.
Aún con todo ese dinamismo y evolución, el entorno dentro de las redes académicas,
específicamente del HEPNet, era uno de aislamiento e incompatibilidad entre formatos
de disco, datos y codificación, volviendo a los intentos de transferencia de información,
una tarea amedrentante. Situación particularmente frustrante dado que el uso cada vez
mayor de las computadoras, hacia casi un hecho que la información de cualquier
proyecto que se quisiera emprender estuviera registrada magnéticamente. De nuevo se
hacían evidentes las necesidades de universalidad, portabilidad y adaptabilidad.
“El prototipo inicial fue escrito en NeXTSTEP entre octubre y diciembre de 1990 con
enlaces a sonidos y archivos gráficos, publicadas por un servidor HTTP. Un navegador
portable fue desarrollado por Nicola Pellow. Para sembrar la Web con datos, se utilizó
un segundo servidor que funcionaba como directorio telefónico del CERN, la primera
aplicación Web. Sin más recursos, se promovió la migración de la Web a otras
plataformas entre la comunidad de Internet y así, nacieron navegadores para cada
sistema operativo”..
“Ya en 1990 andaban por el mundo Archí y Verónica, los buscadores de FTP y Gopher
respectivamente. El crecimiento de la WWW demando su propio motor de búsqueda
ALIWeb, cuyo indexado dependía de la comunicación directa de los creadores de
páginas con el Webmaster y fue fácilmente superada por los buscadores basados en
crawling que aparecieron para 1993”..
De este modo, las páginas sin codificación HTML y las páginas generadas
directamente de búsquedas específicas, que ya quedaban en una posición dudosa en
Web, se fueron relegando y la Web profunda tomo forma. Pero una forma funcional,
pues las páginas amarillas y directorios similares presentaban (y presentan) sus
catálogos en la Web superficial para ser indexados; pero restringe la visualización de
sus artículos al llenado de formatos que envían búsquedas definidas a las bases de
datos. A pesar de eso, el contenido total de la Web no puede alcanzarse a través de
simples hiperenlaces, en muchos casos se requiere un rastreo más profundo.
Los motores de búsqueda obtienen sus directorios por entrega directa de los autores
de las nuevas páginas o por el método conocido como crawling o arrastre. La
indexación por crawling ha sido comparada con la pesca de arrastre porque lanza una
consulta y se queda con todos los enlaces asociadas, como si de una red en altamar se
tratara. Inicia con un URL semilla, recolecta los enlaces en ella e itera el proceso para
cada enlace obtenido. Los buscadores actuales se basan en búsquedas locales y
asignación de puntajes a las nuevas páginas recolectadas de acuerdo a su nivel de
relevancia.
Ilustración 2 - Representación del indexado de búsqueda
Usuarios de
Usuarios de
Regiones Población Internet Penetración Usuarios% Crecimiento
Internet
del mundo (2015 est.) 31 de de (% Población) de la Tabla 2000-2015
Últimos datos
diciembre, 2000
Europa 821 555 904 105 096 093 604 122 380 73,5% 18,5% 474,8%
medio este 236 137 235 3,284,800 115 823 882 49,0% 3,5% 3,426.1%
América
357 172 209 108 096 800 313 862 863 87,9% 9,6% 190,4%
del norte
América
Latina / 617 776 105 18068919 333 115 908 53,9% 10,2% 1,743.6%
Caribe
Oceanía /
37157120 7620480 27100334 72,9% 0,8% 255,6%
Australia
TOTAL
7260621118 360 985 492 3270490584 45,0% 100,0% 806,0%
MUNDIAL
NOTAS: (1) el uso de Internet y la World Population Statistics son preliminares para el 30 de junio de 2015. (2) Haga clic en
el nombre de cada región del mundo para la detallada información de uso regional. (3) Demografía (Población) cifras se
basan en datos de la Oficina del Censo de Estados Unidos, de Eurostat y las agencias locales del censo. (4) información
sobre el uso de Internet proviene de los datos publicados por Nielsen Online, por la Unión Internacional
de Telecomunicaciones, por GfK,reguladores de TIC locales y otras fuentes confiables. (5) Para las definiciones, limitaciones
de responsabilidad, la navegación ayuda y la metodología, por favor consulte el sitio Guía de Surf. (6) La información
contenida en este sitio puede ser citado, dando el debido crédito y la colocación de un enlace
a www.internetworldstats.com. Copyright © 2001 - 2015, Miniwatts Marketing Group. Todos los derechos reservados en todo
el mundo.
Si ahora consideramos el caudal de usuarios por idioma, podemos ver que a Mayo de
2011 565.004.126 usuarios usan el Inglés, 509.965.013 el Chino y 164.968.742 el
Español. En más detalle a nivel general:
Top diez de los idiomas utilizados en la Web - 30 de junio 2015
(Número de usuarios de Internet por idioma)
Crecimiento Usuarios de
Usuarios de Internet Población mundial
DIEZ IDIOMAS Usuarios Internet
Internet Penetración para este idioma
EN INTERNET en Internet % Del total mundial
por idioma (% Población) (2015 estimado)
(2000 - 2015) (Participación)
Español 245 150 733 55,5% 1,248.4% 7,5% 441 778 696
Árabe 155 595 439 41,5% 6,091.9% 4,8% 375 241 253
Portugués 131 615 190 50,0% 1,637.3% 4,0% 263 260 385
Japonés 114 963 827 90,6% 144,2% 3,5% 126 919 659
Ruso 103 147 691 70,5% 3,227.3% 3,2% 146 267 288
TOP 10
2576501025 52,4% 768,2% 78,8% 4917732310
IDIOMAS
Resto de las
693 989 559 29,6% 980,6% 21,2% 2342888808
Lenguas
TOTAL
3270490584 45,0% 806,0% 100,0% 7260621118
MUNDIAL
NOTAS: (1) Top Ten Idiomas Internet Stats se actualizaron para el 30 de junio de 2015. (2) penetración de Internet es el
cociente entre la suma de los usuarios de Internet que hablan una lengua y la estimación total de la población que
habla ese idioma específico. (3) La información más reciente de uso de Internet proviene de los datos publicados
por Nielsen Online, Unión Internacional de Telecomunicaciones, GfK, y otras fuentes confiables. (4) información sobre
la población mundial proviene principalmente de la Oficina del Censo de los Estados Unidos y los de Eurostat. (5) Para
las definiciones, la metodología y la navegación ayuda, por favor consulte el sitio Guía de Surf. (6) Estas estadísticas
pueden ser citados, indicando la fuente y el establecimiento de un enlace activo de nuevo a Internet World
Stats. Copyright © 2015, Miniwatts Marketing Group. Todos los derechos reservados en todo el mundo.
Aun concentrándose gran parte de los usuarios en regiones como Asia, se puede
apreciar que el Ingles sigue manteniéndose como lengua estándar de la web. Estas
cifras en años venideros podría llegar a cambiar, considerando que solo una tercera
parte de la población asiática accede a Internet y que muy lejos están de alcanzar esos
números las demás regiones.
Ahora que se arrojó luz por sobre la cantidad de volumen que posee la web y su
idioma, podemos comenzar a desgranar cual es el punto de acceso principal hacia la
Deep Web.
Mientras la mayor parte de la información en la Web superficial los constituyen textos
HTML desestructurados e imágenes; las bases de datos de la Web profunda se pueden
dividir en relacionales, con atributos y valores, como es el caso de amazon.com y en
desestructuradas, que presentan objetos como medios desestructurados de texto,
imágenes, audio y video; que es el caso de cnn.com.
Podemos recurrir a directorios temáticos, que nos den enlaces a los sitios donde se
encuentran las bases de datos, que a veces tienen partes gratis o accesibles si se
insertan algunos datos. Por ejemplo para trabajar con noticias
existe: http://www.newsnow.co.uk/
También a veces los sitios que se exploran con bases de datos pueden ser
recuperables por medio de los buscadores: por ejemplo realizando una búsqueda en
Google con las palabras claves "american newspapers" Newslink, (http://newslink.org/)
que es una base de datos de enlaces a sitios de en todo el mundo.
• VENTAJAS
El inmenso potencial de las redes y el interés por saber quiénes están detrás del
teclado realizando todo tipo de actividades, ha dado pie a que las personas
protejan su identidad y así, que lleven a cabo al máximo su libertad de expresión
de manera anónima. El anonimato va más allá de "hackear" a usuarios; el
anonimato real permite que las personas se expresen sin riesgos. La web
profunda, es una herramienta muy útil para el gobierno ya que sirve para
monitorear crímenes, terrorismo y actividades ilícitas. También, podemos
navegar libremente por ella sin que se guarden los datos de lo que vemos y
visitamos.
• Investigaciones científicas.
• Directorios.
• Venta de productos.
• DESVENTAJAS
Lamentablemente, al ser una red muy grande, sin restricciones y anónima, hay
una gran posibilidad de encontrar contenido como:
• Imágenes grotescas.
• Videos de crímenes.
• Piratería.
• Tráfico de órganos.
La web profunda contiene casi todo, si tienes el tiempo para buscarlo. Bibliotecas con
gran material, revistas, diccionarios, expedientes y archivos clasificados, y también
mucha, pero mucha Pedofilia. Hay que tener mucho cuidado con lo sitios que visita y al
hacer clic en los enlaces, ya que se puede encontrar con un sitio web de pornografía
infantil, hay que mantenerse alejado de cualquier cosa etiquetada como "chan", 'CP' o
'Candy', probablemente y en gran medida, es tráfico de pornografía infantil.
Por el lado bueno, tenemos guías y listas de teléfonos, e-mail, y todo tipo de
directorios, "People finders" es decir listas de profesionales de todas la disciplinas,
productos de venta a través de e-commerce, leyes, decretos, en general información
legal, aunque alguna se puede encontrar en web estático, archivos multimedia y gráfico
que no tengan la metadata de palabras claves que la identifique en forma clara,
publicaciones digitales de libros y diarios. Pero claro, eso no es todo lo que podemos
encontrar, también se encuentra fácilmente: Hackers (según leí, fácilmente toman tu IP
aunque esta esté bajo proxy, como también se pueden tomar la mayoría de los datos
personales de un usuario) y casi todo lo ilegal que pase por tu mente. Si, Deep Web, si
bien contiene páginas olvidadas e inocentes, es sinónimo de ilegalidad y el solo
adentrarte en ese mundo ya te hace ser ilegal, y no cualquier tipo de ilegalidad.
Aquí es donde normalmente surge una confusión, pues la Deep Web no refiere
directamente a lo que se conoce como la Darknet o Dark Web, pues como hemos visto,
sólo una parte de su populoso contenido refiere a sitios donde es necesario ingresar de
manera anónima. O mejor dicho, conviene ingresar de manera anónima. Por ello, para
tener acceso a la parte más inocente, más informativa y más poblada de la Deep Web,
debes utilizar motores de búsqueda especializados o temáticos, además de recorrer las
ofertas de buscadores de base de datos como Complete Planet, por ejemplo. Además
de esto, y como muchos buscadores estándares han comenzado a indizar este tipo de
sitios, una búsqueda del tipo “astronomical discoveries database” (recuerda que el 90%
de los datos fuertes en internet están en inglés) podría enviarte directo a millones de
oportunidades.
• HERRAMIENTAS DE ACCESO
La dificultad de indexar contenido dinámico, sin enlaces, privado o escrito en código no-
HTML, repercute negativamente en el acceso a la información y el aprovechamiento
real del Internet: "Las fuentes de la Web Invisible son críticas debido a que provee a
los usuarios información específica dirigida, no solo de texto estático o páginas HTML”,
dice Sundar Kadayam, cofundador de Intelliseek, la compañía creadora de la
apropiadamente llamada Invisibleweb.com, un directorio de alta calidad, editado e
indexado a mano.
Como Intelliseek, varios portales han emergido, en un intento de clasificar las bases de
datos de la web profunda en taxonomías y facilitar las búsquedas específicas desde el
entorno amigable de la Web superficial. Algunos ejemplos son,:
HERRAMIENTA DESCRIPCIÓN
Excepto CompletePlanet, cada directorio abarca entre 0.2% y 3.1% de la web profunda;
evidentemente la indexación manual no persigue una escala representativa de la web
profunda sino constituirse en un puerta de acceso a información especializada. Para
poder entrar a mar abierto, hacen falta herramientas diferentes.
• NIVELES DE LA DEEP WEB
Se ha intentado clasificar la World Wide Web en niveles, esto con cierta discusión dada
la dificultad subjetiva de acceso a algunos contenidos, hay categorías determinadas
que parecen más bien ser leyendas urbanas, tal es el caso de los putativos niveles
cinco a ocho. Pero al menos se tiene concierto en la existencia de los cuatro niveles
mostrados en el esquema superior, que atribuye dos niveles a la Web superficial y dos
a la Web profunda. De ninguna manera esto quiere decir que sean equivalentes en
tamaño, pues como se intenta representar con el rectángulo gris, los dos niveles de la
Web profunda comprenden una parte considerablemente mayor del universo de
información.
En el primer nivel quedan los sitios Web genéricos y estáticos que no presentan ningún
problema de indexación. Ya en el segundo hay cierta información oculta pero aún no
por dificultades técnicas sino por sus temáticas de interés particular, esto es lo que se
denomina Bergie Web y se trata de bases de datos bien indexadas y accesibles pero
con ciertos bloqueos como IMDb por un lado y los distintos sitios carnada conocidos
como honeypots por el otro lado. En el nivel tres comienzan la Web profunda, con las
páginas que no se indexan debido a su contenido dinámico pero que son de dominio
público y puede navegarse con buscadores especializadas, aquí queda la mayor parte
de la información en la WWW organizada en bases de datos científicas como la
EOSDIS de la NASA y los catálogos de ebay. El nivel cuatro se le conocen como
Charter Web y no sólo no está indexado por su contenido dinámico, también es
privado y demandan sistemas de anonimato como Tor por el material sensible que se
mueve en ella.
El nivel cuya existencia se discute más es el cinco, bautizado como Marianas Web,
parece tratarse de un nivel restringido para uso gubernamental mediante computación
cuántica que si bien suena atractivo a más no poder por las aplicaciones que tendrían
que estarse desarrollando en cuanto a complejidad computacional, podría simplemente
tratarse de un remanente del MILNET del proyecto ARPANET original, más inseguro
para los intrusos que interesante..
Billones de páginas que son demasiado dinámicas o demasiado privadas para ser
halladas por los buscadores tradicionales.
Al respecto del material sensible, ya en el nivel tres abunda, desde honeypots más
extravagantes, gore, hackers y virus hasta datos sobre Eliza, teoría de AI, seguridad
computacional y realidad virtual. El nivel cuatro tiene todo lo necesario para convertirse
en el paraíso de la ilegalidad y así mantiene mercados de armas, drogas, pornografía
infantil, snuff, animales exóticos, de humanos, de asesinos y supuestamente
información clasificada del tipo experimentos con humanos y teorías conspiratorias,
pero estas últimas son más mitos que certezas.
Se puede indagar gráficamente en los niveles de la Web profunda, haciendo una vista
general de la siguiente imagen (Ilustración 4), que muestra a grandes rasgos la
distribución de la World Wide Web como conjunto global. Esta imagen fue extraída de
la charla del 9 de Mayo de 2013 llevada a cabo en la Universidad de Almería, que fue
citada anteriormente. Se la tradujo por el autor
para una
mejor comprensión.
Utilizando Tor, un navegador con sistema de proxis que sirven para mantener el
anonimato del usuario el primer punto de acceso a la Deep Web sea probablemente la
Hidden Wiki. Este sitio, de aspecto similar a su hermano de la superficie Wikipedia,
sirve como portal de entrada a una cantidad limitada de páginas, que van desde venta
de drogas y armas hasta bibliotecas virtuales con todo tipo de bibliografía desde
académica hasta la que huye del alcance del copyright.
Esta es la dualidad que todo el tiempo parece que presenta esta zona de la web, desde
los fines más oscuros del mercado hasta aquellos más loables como es el compartir
conocimientos académicos.
Se cree que actualmente la Deep Web continuara creciendo, que más usuarios
integraran esta desconocida red a sus sesiones de navegación y de búsqueda
cotidiana y que quizá, si tener una noción de progreso colectivo no necesitáramos
llamarlo abismo, para referirnos a él.
El proyecto Tor, fue presentado en una conferencia sobre seguridad en el 2001; pero
liberado hasta el 2003. Con el objetivo de esconder en el anonimato el tráfico
interactivo, creció gracias al financiamiento gubernamental y de diversas ONGs hasta
convertirse en sinónimo de Web profunda. Se trata de un sistema de anonimato que
nos permite a entrar en contacto con todo lo que no está indexado, ya no sólo con esas
páginas a las que las arañas no llegan -que más bien deberían quedar dentro de la
Web superficial- sino también con todos los sitios construidos específicamente para no
ser encontrados.
Las razones por las que un sitio se diseña para quedar relativamente oculto, pueden
variar; pero el resultado es el mismo, para tan sólo tener la capacidad de
buscarlos, hay que navegar en anonimato y es ahí donde entra Tor.
Por The Onion Routing, el proyecto Tor comprende un conjunto de herramientas - Tor
Browser Bundle, Arm, Tor Cloud, Metrics Portal, Obfsproxy, Oniono, Orbot, Shadow,
Stem,Tails, TorBirdy, Tor2Web, txtorcon y Vidalia-, que nos permiten navegar seguros
haciendo uso del “ruteo cebolla”, una técnica de comunicación creada en el Laboratorio
Naval de Investigación de Estados Unidos en que el mensaje es repetitivamente
encriptado, como si se tratara de las capas de una cebolla.
Como lo dice su sitio, Tor es útil para todo tipo de personas por diversos motivos. El
usuario común protege su privacidad de comerciantes inescrupulosos y ladrones de
identidad, su libertad de informarse de temas sensibles, se protege del mapeo a través
de IP, de la censura y, en algunos países Tor le permite disfrutar las funcionalidades
básicas de Internet. Las autoridades y periodistas, además de esos beneficios, lo
utilizan para obtener y proteger información geográfica sobre usuarios de interés y
comunicarse con confidencialidad. Las empresas consiguen mantener a salvo sus
estrategias y movimientos financieros. Por último, los activistas pueden mantener a
través de Tor una vigilancia global de los derechos humanos y el buen desempeño de
las instituciones, al permitirles reportar atropellos anónimamente, sin temor a
represalias. Es esta heterogeneidad de usuarios, ubicaciones e ideologías la que
garantizado el anonimato, en opinión Jacob Appelbaum, uno de los desarrolladores y
promotores de Tor; pues entre todos esos usuarios se forma un todo diverso en que el
ataque aleatorio puede resultar dañino para el propio organizador del ataque, al volver
a todos los usuarios nodos, se dificulta la discriminación entre amigo y enemigo.
• SERVICIOS OCULTOS
En abril del 2012, en el sitio social de noticias Reddit, apareció un mensaje anónimo
publicando un botnet que funcionaría como servicio oculto de Tor, el malware, que fue
descrito como una versión de ZeuS, usaba un servidor UnrealIRC 3.2.8.1 para el
comando y control de las maquinas infectadas que usaba como SOCK proxy e incluía
un minero Bitcoin. Hasta esa fecha solo dos servicios eran operados para control y
comando, el HTTP estándar basado en ZeuS y un IRC.
Para hacer un servicio oculto de Tor, el operador configura su proxy cebolla para que
los primeros 10 bytes de la codificación ASN.1 de su clave pública automática RSA
sean el identificador del servicio; elige un número pequeño de puntos de introducción y
establece un nuevo circuito de introducción para cada uno de ellos; luego, genera dos
descriptores con IDs diferentes, determina los HSDir responsables y sube a ellos los
descriptores. Un directorio de servicio oculto es un nodo Tor con la bandera HSDir, que
requiere nodos operacionales por al menos 25 horas. Los descriptores del servicio
oculto contienen la lista de puntos de introducción y la clave pública del servicio oculto.
Las cookies del descriptor son un campo opcional que previene la entrada de clientes
no autorizados.
Una vez calculados los identificadores, el servicio oculto ordena los directorios en un
círculo cerrado y elige los tres más cercanos en dirección positiva, es decir los que
tiene IDs grandes. De acuerdo a la implementación actual de Tor, los servicios ocultos
generan y publican dos réplicas de sus descriptores, lo que resulta en dos conjuntos de
tres directorios con huellas consecutivas. La lista de puntos Tor es distribuida por el
mismo Tor en un documento consenso, actualizado cada hora que se mantiene valido
por tres horas y se considera fresco solo en la siguiente hora a su publicación.
I2P funciona con túneles virtuales. Cada nodo en la red I2P es un enrutador que crea y
mantiene cantidad de rutas virtuales entrantes y salientes. Si un nodo A quiere enviar
un mensaje a un nodo B, dirige el mensaje a unos de los túneles de salida junto con la
información necesaria para llegar a uno de los túneles de entrada al nodo B. La
información acerca de los túneles de entrada se almacena, como en Tor, en una DHT
que sirve como red descentralizadora, de este modo se evitan los ataques directos
sobre puntos centrales.
Toda la comunicación es encriptada con múltiples capas: encriptación nodo a nodo
entre el emisor y el receptor, encriptación de transporte entre enrutadores y
encriptación extremo a extremo en los túneles. En este caso la técnica de encriptación
de conocer como ruteo ajo.
Los sitios ocultos en la red I1P, se llaman “eepsites”, tal como los rastreadores de
torrents o los servidores de correo electrónico anónimo pueden ser identificados por
valores o nombres de dominios con el TLD “.i2p”.
• FREENET
Freenet ha estado por aquí desde el 2000, se considera el predecesor de I2P, aunque
al contrario de esta, implemente DHT sólo en la forma de una red sobrepuesta y
desestructurada, es decir, haciendo a todos y cada uno de los nodos responsables de
una parte de los recursos disponibles y por lo tanto participes de todos las peticiones
recibidas.
Ilustración 7 – Freenet
Los nodos mantienen una lista de los nodos vecinos que son confiables para
incrementar la seguridad; lo que se conoce como principio del “mundo pequeño”. Los
nodos y datos se identifican por claves usualmente representadas por un arreglo de
valores. Cuando se están buscando recursos, una petición viaja por todos los nodos
vecinos en orden de preferencia, primero los nodos más cercanos a la clave.
Debido al acercamiento adoptado, Freenet es más útil para servir contenido estático y
no aborda bien a las páginas generadas dinámicamente u otra forma de servicios Web
como IRC y correo electrónico. Comparado con I2P y Tor, Freenet es el menos flexible,
en términos de servicios hospedados, por estar limitado a puro contenido estático.
• CONSECUENCIAS LEGALES
La naturaleza de los bienes mercados a través de los servicios ocultos de Tor, hace que
distintas agencias alrededor del mundo hablen de legislar la red pero sin ningún éxito,
pues los diversos mercados negros que sostiene siguen su funcionamiento normal. Se
considera que hay tres posibles intervenciones: la disrupción de la red Tor, la disrupción
de su infraestructura financiera o la del modelo de entregas.
El rastreo directo sobre la red también ofrece dificultades, Tor es vulnerable a los
ataques de tráfico pero tiene nodos guarda, y aun superándolos, es posible revelar la
ubicación aproximada de un servicio oculto, pero probar que una máquina en particular
esta hospedad el contenido oculto es considerablemente más complicado, podría
tratarse de un simple proxy al servicio mantenido en otra computadora.
El Bitcoin se ha evidenciado como una moneda volátil. En junio del 2011 el robo de una
gran cantidad de Bitcoins de Mt. Gox causó el colapso abrupto. Entonces, un
adversario podría intentar usar esto a su favor, creando fluctuaciones que impidieran
las transacciones. A parte de los costos colaterales evidentes de esta estrategia, Silk
Road provee mecanismos amortiguadores para las fluctuaciones a corto plazo del
Bitcoin, que se han probado útiles para enfrentar su volatilidad, no se puede saber con
claridad si tales mecanismos bastarían ante un atacante con grandes recursos
económicos. Investigaciones recientes han evidenciado la vulnerabilidad del Bitcoin a
los ataques de análisis de tráfico; dado que la historia de las transacciones es pública,
el análisis de la red ayudaría a mapear las claves públicas a usuarios individuales.
Como las agencias de cambio, del tipo de Mt. Gox, enlacen claves públicas a
identidades, el anonimato del Bitcoin es mucho más débil de lo que aparenta. De
hecho, los grandes vendedores, retirando cantidades masivas de Bitcoins de una sola
vez, resultan relativamente fáciles de identificar, al menos que tomen precauciones
adicionales para ocultar sus pistas.
El refuerzo a los controles postales para impedir la entrega de artículos ilícitos parece
ofrecer menos daños colaterales. Muchas de las compras en Silk Road son envíos
internacionales, por lo que el riesgo de pérdida o destrucción es considerado mínimo,
aun cuando, por ejemplo, la coordinación de las agencias postal, antidrogas y de
alimentos en Estados Unidos destruye o devuelve muchos de los paquetes
sospechosos.
Aunque resulte políticamente cuestionable, hay estudios sobre la prevención del abuso
de drogas que demuestran más costosa su prohibición que su regulación. El éxito de
mercados como el Silk Road descansa en la dificultad de compra que presentan otros
canales; entonces, tal vez lo más económicamente viable sea la regulación de los
artículos ofertados que no comprometen los ideales de las naciones. Aunque no hay
declaraciones públicas al respecto, parece que este es el procedimiento adoptado con
los mercados de drogas en línea, puesto que no ha habido interrupciones significativas
a su operación, sino, al contrario un aumento considerable en el volumen de sus
ventas.
Como veremos, la regulación de los contenidos no exclusivos de la Web profunda
puede tener mayores efectos.
De origen, hay dos formas diferentes de implementar servicios ocultos en Tor y de ellas
dependen sus vulnerabilidades. En la primera, el proveedor crea un servicio único para
todos los usuarios y les da autorización una vez que estos hacen contacto de manera
exitosa. A pesar del atractivo de su simplicidad, de ningún modo es posible ocultar la
existencia del servicio una vez que es usado por un cliente, poniendo al servicio oculto
en riesgo de ataque o caracterización. La segunda forma es configurar un servicio
separado para cada cliente, que a pesar de brindar mucho más control al proveedor
sobre la visibilidad de su servicio, gasta demasiados recursos en la red Tor.
Los servicios montados de manera única para todos los usuarios, les permiten el
acceso a los nuevos usuarios creando nuevas credenciales para darles la subsecuente
autorización y remueven usuarios eliminando sus credenciales.
Los problemas de estos servicios se basan en la propagación desenfrenada de su
clave permanente. Los intentos no autorizados de acceso -la apertura de muchas
conexiones por un mismo usuario que luego falla en obtener la autorización- son un
buen ejemplo, porque pueden ser ejecutados por cualquier usuario que conozca la
dirección del servicio aunque haya sido eliminado por el proveedor y porque cada
conexión no autorizada gasta recursos del servicio oculto que tiene que extender un
circuito al punto rendezvous del cliente. Aunque los puntos de introducción y los
servidores directorio lleguen a conocer la dirección y podrían perpetrar este ataque, no
pueden relacionar los datos a las cualidades del servicio y tienen un motivo para
hacerlo.
De igual manera, los clientes previos pueden rastrear la actividad de este tipo de
servicios aunque ya no tengan autorización de acceso, solicitando periódicamente el
descriptor del servicio, ofreciéndose como nodos hasta ser elegido como punto de
introducción o monitoreando pasivamente las peticiones del descriptor e infiriendo el
uso -éxito- que el servicio está teniendo
Lo único que relaciona un servicio con un proveedor es el servicio en sí, tan pronto
como uno se detiene una instancia del servicio oculto, el cliente removido deja de saber
sobre el servicio, pues no conoce las otras direcciones que proveedor usa. Sin
embargo, esto sobrecarga la red, pues es necesario crear puntos de introducción
individuales y publicar los descriptores en concordancia, limitando el número de
clientes que pueden recibir autorización de acceso. Adicionalmente, esta forma de
servicios ocultos probablemente conlleve la publicación simultánea de varios
descriptores, indicándole a los distintos puntos de introducción y directorios qué
servicios ocultos son sostenidos por el mismo proveedor. Un cliente previo que sabe
esto puede atacar o caracterizar el servicio.
Para obtener todas las ventajas de los servicios separados por usuario con la menor
carga posible se puede hacer como los servicios ocultos maduros, los descritos en la
sección 2.3.1.1, e inventar nuevas claves para los puntos de introducción, remplazar la
clave permanente por la clave del cliente, crear descriptores específicos, encriptar los
puntos de introducción, publicar los descriptores con retraso e identificar al cliente.
Con la invención de claves asimétricas para cada punto de introducción lo que se envía
en el primer paso del protocolo de establecimiento de servicios ocultos es la clave
pública y no la permanente y, lo que los descriptores publican en los directorios para
ser usados por los clientes al contactar los puntos de introducción, son las nuevas
claves; proporcionado toda una nueva capa de encriptamiento.
El remplazo de las claves permanentes se logra creando claves para los clientes
autorizado y subiendo descriptores con tales claves; de este modo, es seguro publicar
descriptores diferentes con los mismos puntos de introducción, propiciando la
escalabilidad del servicio.
Las cookies secretas del descriptor son generados por el servicio y atribuidas a cierta
clave de usuario. Para asegurarse que el descriptores sean actualizado y mudados de
directorio periódicamente, los identificadores incluyen una cifra que indica el periodo de
tiempo que depende de la clave permanente, si por ejemplo el periodo es un día,
tiempo de un descriptor se incrementa a una hora específica del día. El índice enlista
las distintas propiedades de un descriptor para los distintos directorios que no pueden
ser determinados por los directorios.
Dado que habrá terceros verificando la correspondencia entre los descriptores y los
usuarios, pero las cookies deben permanecer secretas, en vez de concatenar los
elementos, se recurre a la transformación de cookie, tiempo e índice al identificador
secreto y del identificador secreto al identificador de usuario, haciendo de la verificación
un proceso de dos partes. Primero el nodo directorio verifica el descriptor por su clave
pública, luego genera el identificador con la clave del usuario y si la parte expuesta del
descriptor, si coinciden, continua con el protocolo.
La encriptación de los puntos de introducción con la cookie del descriptor, evitan que
los nodos directorio intenten entrar ellos mismos. Luego de descargar un descriptor el
cliente los desencripta y descubre los puntos de introducción. T
Los cambios reseñados hasta este punto impiden enlazar las instancias de un servicio;
pero mantienen el problema de la publicación simultanea de descriptores en los nodos
directorio, aunque reducida, pues siguen contemplado el envió de ciertos descriptores a
ciertos nodos. La contramedida es la misma a la planteada para los descriptores
específicos pero más refinados. Los descriptores que se van a almacenar en un mismo
nodo directorio tienen que retrasarse para que lleguen de uno en uno. Los descriptores
de otro directorio también tienen que retrasarse una cantidad aleatoria de tiempo para
ocultar su relación. Emerge un conflicto entre la disponibilidad uniforme del servicio y la
necesidad de camuflado entre usuarios.
La última mejora propuesta es la identificación del cliente, al tratarse de servicios
anónimos, el registro de ID’s y contraseñas quedas más que descartadas; pero la
exigencia de reconocer a los usuarios que hacen un mal uso del servicio y deben ser
removidos se conserva. Por ello se pide a los clientes su cookie del descriptor en el
mensaje encriptado que envía al punto de introducción; una vez que el servicio valido la
cookie, el circuito al punto rendezvous puede ser extendido.
Aun así, los puntos de introducción pueden llegar a saber demasiado del servicio por lo
que este debe: memorizar las cookies válidas para prevenir que algún punto de
introducción retrase peticiones de acceso legítimas, forzando al servicio a extender
nuevos circuitos repetidamente y; aceptar sólo cierto número de solicitudes del mismo
descriptor.
A pesar de todo perfeccionamiento al protocolo de uso y montado de los servicios
ocultos, los ataques permanecen y se centran en: el mapeo de directorios de servicios
ocultos, el monitoreo de datos de usuarios, el monitoreo de sitios sociales, el monitoreo
de servicios ocultos y la caracterización de mercados .
Tanto Tor como I2P usan una base de datos de dominio para construir su sistema de
distribución conocido como DHT. DHT funciona por la colaboración entre los nodos
para el almacenaje y el mantenimiento aparte de una base de claves. Gracias a su
naturaleza distribuida, es posible desplegar nodos DHT para monitorear peticiones de
dominios dados, obteniendo así vistas parciales de la base de datos de las peticiones
en proceso; que no permiten rastrear quien intenta acceder a un servicio dado pero
ofrecen estimados estadísticos de los nuevos dominios que van ganando popularidad.
Adicionalmente, tales nodos, dan una buena estadística del tráfico global en la red.
Una compañía de seguridad podría beneficiarse del análisis de datos de usuarios Web
en búsqueda de conexiones a dominios no estándar. Dado que esto depende del nivel
de registros del usuario, podría no tratarse de una estrategia muy fructífera en el
rastreo de servicios Web pero sin duda brindaría revelaciones interesantes sobre las
actividades en dominios TLD pícaros.
Los sitios como Pastebin suele ser usados para intercambiar información de contacto y
direcciones de servicios ocultos nuevos, entonces, deben mantenerse bajo vigilancia
constante. La mayoría de los servicios ocultos tienden a la fecha a ser altamente
volátiles y salir de circulación tan seguido como vuelven bajo un nuevo nombre de
dominio; por lo que es esencial, tener una vista rápida de cada nuevo sitio tan pronto
como aparece para así tener la posibilidad de un análisis posterior; pero esto debe
hacerse teniendo en cuenta que, cuando se va de un link a otro en la Web profunda, se
puede desencadenar la descarga automática de contenido sensible, cuya simple
posesión es considerada ilegal en la mayor parte del mundo.
• Punto medio. Todos los clientes Tor, incluidos los servicios ocultos,
establecen circuitos fuera de red mientras espera peticiones de servicios;
cuando reciben la peticiones, extienden los circuitos, en el caso de los
usuario comunes a nodos que permitan las salidas http, ssh y https, en el
caso de los servicios ocultos, a nodos que permitan conexiones rendezvous.
Si un atacante se presta como nodo conector al punto rendezvous, es decir,
corre como punto medio, se constituye casi siempre como el primer o el
segundo nodo del circuito, facilitando el ataque.
A pesar de no ser un ataque directo contra la red Tor ni mucho menos, hay un bug que
merece mencionarse en este punto. Heartbleed (CVE-2014-0160). Es un error de
programación en la extensión hearbeat de las versiones 1.0.1 a 1.0.1f de OpenSSL
detectado por Neel Mehta de Google Security que permite a los hackers leer memoria
de la computadora con el software, pero no más de 64 bytes por vez, aun así; la
vulnerabilidad que anduvo por ahí dos años antes de ser detectada oficialmente,
expone las claves privadas, comprometiendo la privacidad de todo el tráfico futuro por
lo que ha forzado la colocación de parches y reinicio de claves. En el caso de Tor,
expone a los usuarios del Tor Browser Bundle a los servicios ocultos y permite la
intercepción del tráfico en los nodos vulnerables y todo sin dejar evidencia del ataque;
aunque se hizo un llamado a mantenerse desconectado mientras las medidas de
recuperación eran implementadas, la anatomía de Tor no permite garantizar que todos
los nodos sean seguros y aunque no compromete seriamente el anonimato de los
servidores atendidos, si expone los mensajes tocando nodos voluntarios.
http://heartbleed.com/. 2014-04-29. https://blog.torproject.org/blog/openssl-bug-cve-
2014-0160. 7/04/2014
Otro ataque, no directamente dirigido contra los servicios ocultos sino contra Tor, es la
inducción de patrones de tráfico en el circuito que protege al cliente, para probar la
latencia de los nodos. Simultáneamente, el atacante busca correlaciones entre los
patrones inducidos y las latencias observadas, cuando encuentra una, el atacante sabe
que el nodo está en circuito elegido y entonces puede reconstruirlo, aunque no
descubra el nodo final. En el caso de que el atacante tenga un número limitado de
candidatos para el servicio oculto, este ataque podría revelar su identidad; lo que es
plausible dado que muchos servidores ocultos son nodos publicitados en la comunidad
Tor.
En respuesta a estos ataques Tor ha implementado contramedidas que limitan los
ataques, no así los servicios ocultos, como los nodos guarda que interfieren
directamente con el ataque de punto medio, el tráfico “bobo” que entorpece el análisis
de tráfico. El tráfico bobo, sin embargo, es costoso y no ha sido comprobado eficiente
contra ataques activos a sistemas de baja latencia fuera de Pipenet.
• CONCLUSIONES
Tras acercarnos de una forma más concisa al mundo de la web profunda y conocer las
acciones que se están llevando a cabo tanto para su regulación como para su defensa
en favor de una serie de derechos y libertades en la información, cabe establecer un
punto de convergencia entre cada una de ellas para alcanzar así una deducción, fruto
de nuestro trabajo de investigación. Partiendo de la introducción del proyecto, hemos
podido advertir que las nuevas tecnologías se han implantado en nuestra sociedad
hasta el punto de que se ha hecho indispensable para determinadas tareas de vital
importancia el uso de la informática y las telecomunicaciones. Si algo queda claro, ante
todo, es que Internet está obteniendo un papel cada vez más central en este nuevo
siglo de las tecnologías. El acceso a la red se impone en la Sociedad de la Información
como requisito de inclusión, de forma que quien no accede se encuentra literalmente
“desconectado”.
Pero no todo aquel que tiene las herramientas necesarias para navegar por la red
posee los conocimientos que han de garantizar su seguridad y permitir su libre
circulación por los contenidos. Este desconocimiento crea una sensación de
inseguridad en el usuario que le impide explotar al cien por cien las oportunidades
que Internet pueda ofrecerle en materia de información. El miedo a lo desconocido
hace alejarnos de las oportunidades que ofrece la Web Profunda hasta el punto que la
mayoría nunca ha mostrado interés en cómo acceder o incluso nunca ha oído hablar de
ella. No obstante, se ve como algo habitual. El usuario común prefiere limitarse a la
parte más superficial de internet antes que arriesgarse a entrar en un mundo donde las
infracciones y la delincuencia están a la orden del día. De ahí, la necesidad de que los
diferentes organismos internacionales y la jurisdicción elaboren una serie de
mecanismos que garanticen las condiciones óptimas para que todos los grupos e
individuos de la sociedad puedan tener acceso a ese medio de intercambio e
interacción, garantizando siempre su protección. Todo ello sin poner en peligro la
libertad de expresión, creación y difusión de contenidos, pues sin estos la propia
finalidad de estas acciones, que recae en el máximo aprovechamiento por parte del
usuario de las oportunidades que ofrece la red, quedaría obsoleta. Y aunque la
legislación ya ha dado sus primeros pasos en cuanto a delitos en Internet se refiere,
bien es cierto que no es una tarea fácil. Las redes creadas por los usuarios de la Deep
Web han generado un submundo en el que los delitos son difíciles de perseguir debido
a la propia naturaleza del entorno. La falta de intangibilidad del espacio donde se
desarrollan este tipo de actividades junto con el anonimato obstaculiza las normativas
legales, así como la propia apreciación por parte de los individuos. Por otra parte, el
intento de acabar con el anonimato y socavar la identidad del criminal impone el
desafío de replantear los límites entre lo público y lo privado para cualquier usuario. Es
aquí donde, en la mayoría de ocasiones, el derecho se ve obligado a inclinar la balanza
entre la vulneración de los derechos fundamentales de libertad de expresión y derecho
de la información, de rango fundamental, o la intromisión a los datos sensibles de una
persona, que del mismo modo supondrían una violación del derecho a la intimidad y
a la imagen. Otra característica propia de la red, y en la que muchos estudiosos hacen
hincapié, es su ausencia de límites geográficos. Dada la imposibilidad absoluta de fijar
unas fronteras mínimas en la red se hace necesario desarrollar, además de la
normativa propia del derecho interno de cada país, una legislación internacional
competente, así como reforzar la ya existente. Pese a que algunos derechos ya se
incluyen en los preceptos reguladores de algunos organismos internacionales, no
existe una normativa concisa. Además su carácter programático hace que carezca de
las penalizaciones necesarias para castigar los malos usos de la red. Por último, cabe
destacar que Internet sufre un desarrollo constante que dificulta a las autoridades el
poder estar al día de las nuevas formas de criminalidad y así tener instrumentos que
actúen en respuesta a estos delitos de forma inmediata. Por todas estas dificultades
que entrama, también sería conveniente no dejar la seguridad de internet
exclusivamente en manos de las autoridades y la jurisdicción. Los propios usuarios
podemos fomentar, a través de las redes de telecomunicaciones, una nueva ética
“ciberespacial” que genere y estimule actitudes de conciencia colectiva sobre el respeto
de las libertades y de los bienes amenazados por la utilización indebida de la red, y
contribuir a la formación de vínculo solidarios para la prevención de los crímenes
informáticos y la ayuda a su descubrimiento. Estas redes de comunicación solidaria
podrían, incluso, conducir a la producción de reglas jurídicas consuetudinarias sobre su
uso, en las que la dimensión coactiva de las normas basada en la autoridad de
un poder centralizado de paso a códigos de conducta cuya eficacia se base en
la convicción de los usuarios y su propia responsabilidad. En conclusión, se podría
afirmar que la fragilidad de la red es tal que se hace absolutamente necesario tanto
elaborar una normativa que obligue a endurecer las medidas de seguridad y sanción de
delitos cometidos en la Deep Web como evaluar qué medidas son realmente las
adecuadas para el total respeto de los derechos fundamentales del ciudadano. Todo
ello, estableciendo vínculos con los internautas, y entre estos, que permitan un mayor
grado de colaboración y concienciación de la población que, al fin y al cabo, es la
verdadera usuaria. Finalmente, se habrían de elaborar procedimientos especiales que
tengan estas cuestiones en cuenta y seguir examinando la promoción, la protección y
el disfrute de los derechos humanos, incluido el derecho a la libertad de expresión, en
Internet y en otras tecnologías, así como la forma en que Internet puede ser un
importante instrumento para el desarrollo y para el ejercicio de los derechos humanos,
de conformidad con el programa de trabajo que ya viene manteniendo las Naciones
Unidas. Pues no debe considerarse Internet únicamente como un medio de
propagación del crimen, si no como una increíble vía de comunicación a través de la
que se agilizan hasta límites insospechados los trámites administrativos, las relaciones
intergubernamentales, el intercambio de conocimientos y consecuentemente la
formación de la opinión pública.
• GLOSARIO
Pandora: Mercado negro de la Web profunda montado como servicio oculto de la red
Tor.
PipeNet: Sistema de anonimato que introduce tráfico bobo para mantener un flujo
constante, dificultando el análisis de tráfico, en una red más robusta que Tor por
mantener una mejor coordinación entre todas las conexiones.
Proxy: Servidor que actúa como intermediario entre el cliente y otros servidores para
dar estructura y encapsulamiento a los sistemas distribuidos.
Punto de introducción: Nodo que funge como entrada a un servicio oculto a contactar
al punto rendezvous con el servicio.
Silk Road: Mercado negro de la Web profunda montado como servicio oculto de la red
Tor. Es el sitio más famoso de la Web profunda por su alcance mundial en la venta de
drogas. Fuertemente ligado al Bitcoin, fue fundado en el 2011 y ha crecido rápidamente
a pesar de los ataques del FBI
SMTP (Simple Mail Transfer Protocol): Protocolo estándar para transmisión del
correo electrónico.
SOCKS (Socket Secure): Protocolo de Internet que rutea los paquetes entre el cliente
y el servidor a través de un proxy.
The Pirate Market: Mercado negro de la Web profunda montado como servicio oculto
de la red Tor.
TLD (top-level domain): Es uno de los dominios del nivel más alto del DNS
TLDs pícaros: Sitios registrados bajo DNSs alternativos que requieren la configuración
apropiada del servidor para poder ser visualizados. Son, junto con las infraestructuras
alternativas, mecanismos de evitar activamente el indexado.
TLS (Transport Layer Security): Protocolo predecesor del SSL para la comunicación
en el Internet
TorBirdy: Aplicación beta de Tor para Thunderbird, Icedove y otros clientes de correo
electrónico de Mozilla.
Tor Browser Bundle: Distribución de Tor para Windows, Mac OS X y Linux que no
necesita instalarse, únicamente se extra y está lista para usarse.
Tor Cloud: Herramienta semi-libre de Tor Cloud, que ayuda a los usuarios un acceso
sin censura a la Internet via la nube EC2 de Amazon.
Tor2web: Herramienta de Tor que permite a usuarios no anónimos acceder a los
servicios ocultos
Txtorcon: Implementación en python del protocolo del control de Tor
UUNET: Red privada temprana.
VENTex: Técnica automática de minería de datos de la Web profunda que utiliza las
variaciones de CSS2 para extraer la información.
WWW (World Wide Web): Red creada para simplificar la difusión de información,
principalmente científica, por el investigador de ciencias de la computación Tim
Berners-Lee en 1990 en el CERN.
ZeuS: Familia de botnets que funcionan como caballos de Troya sobre el sistema
operativo Microsoft Windows.
• BIBLIOGRAFIA