Está en la página 1de 4

Motores de búsqueda en Internet

El orden del caos


Gonzalo Gutiérrez

G. Gutiérrez es analista de información en D3E (Desarrollo Economía Ecología Equidad -


América Latina).
Publicado en el semanario Peripecias Nº 41 el 28 de marzo 2007. Se permite la reproducción
del artículo siempre que se cite la fuente. Licencia de Creative Commons con algunas
restricciones.

La búsqueda se ha vuelto parte de la cotidianidad de los usuarios de Internet.


El poder que encierra un cursor parpadeante en un cuadro de texto junto a un
botón que dice “buscar” es ampliamente conocido por los usuarios. Los
motores de búsqueda han pasado a ser la interfaz de la Red. Navegar casi se
ha vuelto sinónimo de utilizarlos. Todo está allí, detrás de una pantalla simple
hay un mundo por conocer. Si el usuario no encuentra lo que busca es muy
probable que el problema esté de su lado, tal vez los términos que introdujo no
son los adecuados, tal vez una palabra fue mal ingresada.

Los motores de búsqueda son programas que recorren la Red, sitio a sitio,
enlace tras enlace, y cargan los resultados en gigantescas bases de datos. De
este modo construyen catálogos que son consultados cuando se ejecutan las
búsquedas a través de los portales.

En la prehistoria de la búsqueda en Internet tenemos a Archie, un programa


desarrollado en 1990 que recorría la Red una vez al mes y guardaba los
nombres de los archivos en una base de datos. Por aquél entonces la Red era
un ámbito esencialmente académico, los usuarios típicos eran profesores y
expertos en tecnología, y la cantidad de sitios apenas llegaba al centenar. Aun
así quien buscaba algo no las tenía todas consigo. Para encontrar un archivo
había que ingresar una palabra clave que coincidiera con el nombre del mismo,
entonces el programa devolvía una lista de direcciones de servidores a los que
el usuario debía conectarse y buscar allí el archivo requerido.

Las dificultades y limitaciones de este método sumadas al crecimiento


exponencial que experimentó la Red (de 130 sitios en 1993 a 600.000 en 1996,
cada uno con un número de páginas cada vez mayor) demandaron buscadores
más potentes. WebCrawler fue el primero en indexar todo el texto contenido en
los archivos, no solamente sus nombres. Esto fue en 1994 y significó un gran
avance, en consonancia con las nuevas características de la Red. Pero sin
duda el gran boom lo constituyó AltaVista, un buscador que combinaba la
potencia del software y el hardware (fue desarrollado por DEC, una compañía
de servidores de red). A fines de 1995 AltaVista tenía indexados 16 millones de
archivos y su interfaz reconocía archivos multimedia, búsqueda multilingüe y
otras prestaciones que hoy nos resultan familiares. Con estas características
pronto se convirtió en uno de los sitios más populares de Internet; en 1997
recibía 25 millones de visitas diarias.

Paralelamente otros buscadores hicieron su camino. Lycos incorporaba la


posibilidad de mostrar un resumen del contenido de la página junto a la lista de
resultados, y también fue el primero en ordenarlos en función de los enlaces a
cada página (cuantas más veces sea referida una página desde otros sitios
más alta será su ubicación en la lista de resultados que se devuelven al
usuario). Excite, por su parte, comparaba la palabras clave que ingresaba el
usuario con estadísticas de otras búsquedas, para establecer relaciones y
mejorar los resultados.

Yahoo figuraba entre los portales más visitados, pero su auge residía en el
catálogo de páginas que administraba y no en su motor de búsqueda, del cual
carecía. Básicamente el portal ofrecía al usuario la posibilidad navegar a través
de categorías que iban de lo general a lo particular hasta encontrar los
resultados (por ejemplo: entretenimiento, música, videos, rock, etc.).

Al incrementar su potencia y prestaciones, al tiempo que crecía el número de


personas que los utilizaba, los buscadores pasaron a ocupar un lugar cada vez
más relevante convirtiéndose en fuentes de cuantiosos dividendos. La gran
mayoría de los motores de búsqueda eran creados en las universidades por
estudiantes que una vez que desarrollaban sus ideas formaban empresas para
entrar en el mundo de los negocios. Este modelo fue seguido por muchos,
entre ellos, Larry Page y Sergey Brin con Google.

El éxito de Google frente a sus rivales tiene una explicación. Mientras los
demás motores de búsqueda iban enlace tras enlace recorriendo e indexando
las páginas, el algoritmo BackRub hacía eso y el camino de vuelta, es decir que
registraba qué sitios apuntaban a cada página que visitaba. Una vez obtenido
esto, mediante un algoritmo denominado PageRank se analizaban cuáles eran
los sitios que tenían enlaces a una determinada página, y en función de la
importancia de esos sitios la página ascendía o descendía en el ranking. El
algoritmo resultó ser eficiente (en 1996 tenía indexados más de 100 millones
de enlaces), de hecho fue el primero que resolvió con un criterio aceptable la
relevancia de los resultados, es decir la posición que ocupa cada página dentro
de la lista de los devueltos. Esto pronto se convirtió en un gran éxito. La
confiabilidad en los resultados devueltos por Google era muy superior al resto
de los buscadores, tan es así que los administradores de sitios web
comenzaron a tener en cuenta los criterios definidos por el algoritmo de Google
para incrementar su relevancia.

Según John Battelle, autor del libro “Buscar” [1], los creadores de Google, sin
saberlo, estaban “marcando el camino de una ecología completamente nueva,
una ecología moldeada a través de millones de decisiones y de millones de
webmasters, cada uno de los cuales simplemente deseaba obtener la mejor
clasificación en el índice” (p. 108).

Pero con toda esa información Google se transformó en mucho más que un
buscador. En sus registros constan miles de millones de términos de búsqueda
almacenados durante años, esos términos reflejan las preferencias de la gente,
lo que Battelle denomina como base de datos de las intenciones. Para el autor
esta información representa “una historia en tiempo real de la cultura post Red:
una base masiva de datos de deseos, necesidades y preferencias en un clic
que se puede descubrir, citar, archivar, rastrear y explotar para todo tipo de
fines” (p. 18).

Las implicancias sociales de toda esa información son complejas de analizar. A


priori no parece bueno que una sola compañía concentre tanta información en
momentos que justamente se habla de “sociedad de la información” para definir
a la sociedad en la que estamos viviendo. Tampoco parece bueno que esa
compañía almacene datos sobre nosotros y nuestras preferencias a través de
los términos ingresados para realizar búsquedas y rastros de los sitios que
visitamos. Recientemente, y ante preocupaciones planteadas desde varios
sectores, Google anunció que eliminará los historiales de búsqueda luego de
un tiempo transcurrido entre 18 y 24 meses.
Esto bien puede ser motivo de otro artículo, pero volviendo a los buscadores,
según un ejecutivo de Amazon, “la búsqueda como un problema se ha resuelto
aproximadamente en un cinco por ciento” (p. 25). En el tiempo transcurrido
desde el lejano Archie se ha logrado avanzar a pasos agigantados, pero recién
es el comienzo. En el futuro de la búsqueda aparece la Web semántica que se
basa en metadatos (datos sobre los datos) para describir los contenidos. Esto
se complementa con los denominados Buscadores sociales, que son
buscadores que tienen en cuenta la opinión de usuarios y organizaciones
calificados que comparten sus términos de búsqueda. A ello se suma el
progreso en el ámbito de la inteligencia artificial gracias a lo cual la próxima
generación de buscadores podrá interpretar las preguntas formuladas
directamente, como si tuviéramos un experto a nuestro servicio.

[1] Battelle, John 2006. Buscar. Ediciones Urano, Barcelona.