Está en la página 1de 63

SEO

Posiciónate en 10 días.

Roberto Quintanar – Rodrigo Quintanar


’$%! &./,),2-(0+ +- #" *1(/!

/C;?7C3 76;5;O@( ’%&%

*#1# L ’%&%! 2A8EB:7C3#

:EEB($$HHH#DA8EB:7C3#5A?

0F763 BCA:;4;63 >3 FE;>;K35;O@ 67 7DE3 A4C3


5A@ 8;@7D 67 >F5CA! 43<A >3D D3@5;A@7D 67
>3D >7J7D 67> $%(&#!"’# 27 3FEAC;K3 DF FDA J C7BCA6F55;O@
5A@ 8;@7D 6;6M5E;5AD! D;7?BC7 J 5F3@6A D7 :393 C787C7@5;3
3 >AD 3FEAC7D#

-?BC7DA 7@ .NI;5A#
Prólogo

El internet es una herramienta tan poderosa que nunca


sabremos cuáles serán sus límites. Hasta hace unos años, las
empresas sólo usaban la web como un medio meramente
informativo, donde, a lo mucho, sólo daban a conocer cuáles
eran los servicios y productos que ofrecían, así como la
historia de la empresa, su imagen, meta, misión y visión.

Hoy en día, todas las empresas que se precien de ser serias


cuentan con una página web, y buscan mantenerla siempre
entre las más visitadas, las más conocidas, las mejores… es
por ello que han surgido cientos de agencias de
posicionamiento en buscadores, que ofrecen colocar a sus
clientes en los primeros lugares de búsqueda cuando el
cibernauta teclee las famosas “palabras clave” en búsqueda
de información, un servicio o producto.

También es cierto que muchas de esas agencias de


posicionamiento ofrecen a veces precios exorbitantes, lo cual
es una ventaja para las empresas más grandes, que contarán
con el mayor capital para competir. Los pequeños
empresarios siempre tendrán un presupuesto limitado, y
tener que gastar miles de dólares en posicionamiento web les
es, frecuentemente, imposible.

La diferencia presupuestal entre una empresa tiburón y una


empresa pez siempre será una limitante en lo que se supone
una libre competencia. Y más cuando se trata de contratar a
un agente externo.

Preocupados, pues, por esta desventaja, los hermanos


Roberto y Rodrigo Quintanar colocan en nuestras manos, sin
costo alguno, este maravilloso libro sobre las herramientas
SEO (Search Engine Optimization). Es verdad que ya se han
hecho otros tantos, pero ninguno hasta ahora develaba los
verdaderos secretos de cómo colocar una página en los
primeros lugares de búsqueda de una manera tan concisa,
breve y sencilla.

Si estamos en una libre competencia, es justo también que el


conocimiento se globalice para generar mayores
oportunidades para todos, no sólo para unos cuantos que
posean el capital para acaparar los servicios técnicos
especializados.

Y si bien es cierto que nada en esta vida es fácil, siempre se


agradecerán los intentos por dotar de herramientas
importantes a todos, para que ese concepto de igualdad sea
tangible, y no sólo un discurso que queda en el aire.

Bob Dan Briegel.


Introducción

El internet se ha convertido en un apéndice importante de


nuestro sistema social. Es difícil imaginar, hoy en día, la vida
sin este fabuloso medio de comunicación, el más aventajado
lo que se refiere a interactividad entre emisores y receptores,
que continuamente se retroalimentan intercambiando su rol
dentro del esquema de la comunicación.

Pero el internet no siempre fue lo que es actualmente. Si nos


remontamos a 1994, cuando este medio era todavía incipiente
a nivel comercial en los países del Primer Mundo e inaccesible
para la gran mayoría de las personas en los países en vías de
desarrollo, todas las páginas de las empresas eran
meramente informativas.

El internet se transformó a partir de mediados de la década


de los noventa, cuando surgieron los primeros sitios que
ofrecían servicios y productos, y no mera información. Uno de
los primeros ejemplos es eBay, el sitio de subastas en línea,
que comenzó cuando Pierre Omidyar trató de ayudar a su
novia a vender productos a través de la red, y pronto se topó
con las necesidades de cientos de personas que buscaban
aprovechar ese servicio para ofrecer también sus productos.
Es decir, surgió la necesidad de interactuar en el internet.

Es así como se dieron los primeros pasos para llevar un


internet lineal, informativo y cuasi unidireccional a una
transformación profunda que cambiaría para siempre al
mundo. Y de esa transformación surgieron nuevas
herramientas para ofrecer mejores servicios a los internautas,
que les permitiesen ser no sólo receptores que procesaran la
información, sino que se hicieran partícipes del medio. Es
decir, surgió la Web 2.0, reflejada hoy en día en sitios como
Wikipedia o los foros de opinión.

Pero, ¿por qué fue tan importante que surgiese la Web 2.0
para los servicios y el comercio en la red? La respuesta es
bastante sencilla. A través de la Web 2.0 fue más fácil
conocer las necesidades y deseos de la gente, lo cual abrió
nuevos mercados, mucho más focalizados, una ventaja que
ningún otro medio de comunicación ofrecía hasta ese
momento, ya que permitió hacer segmentaciones mucho más
homogéneas sin necesidad de invertir demasiado en costosas
investigaciones de mercado.

Fue entonces que muchas empresas comenzaron a poner


atención en internet. Había pasado de ser un mero
instrumento de información a convertirse en una verdadera
herramienta de poder mercantil. Cientos de empresas ofrecen
exclusivamente servicios en línea de manera exitosa, y
obtienen ganancias de cientos de miles de dólares. Ejemplos
sobran: eBay, Amazon, Increase Visibility, etc.

Esto se explica fácilmente desde una perspectiva


funcionalista. Los nuevos medios de comunicación se adaptan
al sistema, y parte del sistema se ajusta para permitirles
entrar, sobre todo si tienen potencial comercial y hacen
circular dinero en enorme cantidades. Internet cumplía a la
perfección esta característica, por lo que su adaptación al
sistema de medios fue, relativamente, rápida y sencilla.
Es por ello que el internet es ya una forma de vida para
muchas personas alrededor del globo terráqueo. Sus negocios
dependen exclusivamente del internet, lo cual les obliga a
posicionar su página en los buscadores más populares para
que aparezcan rápidamente a los ojos del internauta.

Y también es importante este texto para estas instituciones


públicas u organizaciones sin fines del lucro, porque resultaría
absurdo, por ejemplo, que una asociación que protege a los
niños quemados pague $20,000 por un posicionamiento web,
o una escuela perteneciente al Estado. La congruencia ante
todo; posicionarse no tiene por qué ser un servicio que cueste
miles de dólares.
Nota importante

Posicionamiento web no necesariamente es equivalente a


obtener más visitas en su sitio. Puede usted tener el primer
lugar con un criterio de búsqueda, sin que esto represente un
aumento en el tráfico de su página. Es por ello que, además
de dar algunos importantes tips para posicionarse, también
tocamos el tema del tráfico en un apartado especial.

Una vez aclarado esto, iniciemos.


Capítulo 1

Negocios y la Web 2.0

La Web 2.0 está definida como la evolución del modo lectura


al modo lectura – escritura. La Web 2.0, según la revista SG,
brinda un mecanismo a través del cual los usuarios no sólo
puedan comunicarse con el creador del sitio, sino también
entre ellos1. Es decir, un sitio Web 2.0 permite la interacción
de la que hablábamos anteriormente, y dicha interacción
queda grabada como parte del contenido, lo cual es el alma
de este concepto (permitir que el contenido sea modificado o
añadido, de alguna manera, por los usuarios).

A través de la Web 2.0, es más sencillo que los usuarios de


internet compartan experiencias, opiniones o creatividad2.
Este desarrollo ha permitido la virtualización del campo de
trabajo, lo cual ha beneficiado la proliferación de los negocios.

1-1. Virtualización

Pierre Levy define lo virtual como aquello contrario a la


actualización3. La actualización viene a ser la solución de un
problema; lo virtual sería, entonces, acomplejar las cosas;
esto sonará como algo novedoso para el lector que pensaba
en lo virtual como algo “simulado e intangible”, e incluso es

1
Revista Software Guru, Año 03, No. 4, Junio-Agosto de 2007. p. 16
2
Ídem, p. 17
3
Levy, Pierre. ¿Qué es lo virtual? Barcelona, Paidós, 1999. pp. 17 – 25.
probable que ya se haya confundido. Pero el asunto es, en
realidad, más sencillo de lo que parece.

La virtualización crea un problema, porque redefine el espacio


y el tiempo. No se trata de “un mundo posible”, no es algo
imaginario y, por tanto, no se opone a lo real. Lo virtual parte
de una solución para crear un problema; pongamos un
ejemplo: si existe el problema de que en un poblado pequeño
hagan falta escuelas, la solución es construir escuelas. Usted,
como estudiante, va a la escuela en un horario determinado,
en un tiempo determinado, en un lugar definido. Pero resulta
que a esa escuela se le ocurre abrir “aulas virtuales” a través
del internet; el alumno puede acceder a los cursos en línea
desde su casa, y a la vez que lee un material de estudio o
escucha una grabación del profesor, puede detenerse porque
su madre lo llama para desayunar o ir a la tienda. Ahí es
cuando se nota qué es lo virtual: es algo que existe, pero no
está, algo que redefine el espacio y tiempo en el que se
desarrollan las actividades.

El siguiente ejemplo aclarará las cosas. Si usted labora desde


casa a través del internet, su lugar de trabajo está en ahí,
pero a la vez no. Podrá llevar su computadora a un café,
restaurante o biblioteca donde haya internet, pero,
virtualmente, sigue en el mismo espacio indefinido, porque
existe y sigue trabajando. No tiene un horario, pues así como
puede detenerse a las tres de la tarde un día, al siguiente
puede hacerlo a las seis. No tiene un horario ni oficina, pero
su lugar de trabajo está ahí, en un espacio y tiempo
indeterminados, quizá hasta invadiendo su vida privada (ya
que puede trabajar en los horarios que normalmente está con
su esposa, hijos, amigos o comiendo tranquilamente en su
mesa). Eso es la virtualización.

1-2. Una forma de conocer mejor al internauta

Con la Web 2.0, parte de las relaciones humanas se


virtualizan, incluyendo las laborales, y también los estudios de
mercado. Y es a través de la interacción entre los internautas
que se puede conocer mejor a los clientes potenciales; por
ello la Web 2.0 ha sido fundamental para el crecimiento y
proliferación de las empresas online, una forma de hacer
negocio.
Sabiendo cuáles son las necesidades, pensamientos,
opiniones y motivaciones de los internautas, es más fácil
obtener una visión más clara para golpear en un punto
estratégico.

Podrá usted pensar que todo esto es demasiada teoría que


nada sirve para la finalidad de este libro, que es explicar el
funcionamiento de las herramientas SEO. Pero es importante
explicarlo, ya que en función de ello es que existen esas
herramientas.

Supongamos que quiere lanzar a la venta unos lentes que


“lanzan ondas electromagnéticas que evitan las migrañas”. Si
investiga en internet, se dará cuenta de que, efectivamente,
muchísima gente busca remedios para los dolores de cabeza;
por otra parte, si lo que quiere es vender unos lentes
especiales para maximizar el rendimiento de las personas que
salgan a correr por las mañanas, el internet le hará saber que
quizá no sea tan buen negocio, en principio porque,
tristemente, la cantidad de gente que hace ejercicio por las
mañanas es muy baja en la mayoría de los mercados, y tal
vez esas personas se expresen en un foro de opinión diciendo
que no les gusta usar lentes mientras corren porque “les
estorban y en la mañana no hace un sol que moleste mucho a
la vista”. He ahí la importancia de conocer a su mercado y las
actitudes que tienen hacia ciertos servicios o productos, ya
estén en circulación o sean potenciales4.

Pero esto no solamente atañe a quien quiera hacer dinero con


el internet. También las páginas educativas e informativas sin
fines de lucro, y que consideramos las más valiosas por su
contenido y aporte a la sociedad, requieren tráfico y conocer
bien los intereses de los internautas para llegar a la mayor
cantidad de gente posible.

4
Es importante resaltar que estos son ejemplos; científicamente, no se ha
comprobado que un producto como unos anteojos sea capaz de quitar migrañas o
hacer milagros.
Capítulo 2

SEO

2-1. ¿Qué es el SEO?

SEO son las iniciales en inglés para designar a la Optimización


de Motores de Búsqueda (Search Engine Optimization). A
través de las herramientas SEO, las páginas web pueden ser
posicionadas en los primeros lugares de un buscador.

Para poner un ejemplo sencillo, supongamos que usted tiene


una empresa llamada Limonaleta S.A. de C.V., la cual se
dedica a la elaboración, distribución y venta de paletas
congeladas de limón natural. Para conocer mejor a su
mercado, ofrecer mayor información a sus clientes y tener
una mayor interacción con ellos, manda hacer una página de
internet para su empresa. Pero resulta que usted apenas va
arrancando con este negocio, por lo que necesita darse a
conocer para posicionarse en el mercado. Siempre tenga en
cuenta que, en ese caso, el internet es sólo uno de los medios
por los que usted puede posicionar a su empresa.

El primer problema que usted enfrentará no es sólo la


competencia, sino el hecho de que hay cientos de páginas que
hablan sobre paletas de limón; heladerías, sitios de recetas,
etc. Es decir, no sólo hay que derrotar a su competencia, que
supongamos son Holanda, Nestlé y La Michoacana, sino que
también deberá vencer a los otros sitios que tengan un fin
distinto. Una vez dado este sencillo ejemplo, lo tomaremos
para seguir explicando el SEO.

2-2. ¿Cómo funciona el SEO?

Las herramientas SEO permiten que su sitio se ubique en los


primeros lugares en buscadores como Google o Yahoo!.
Retomando el ejemplo anterior, si un internauta llega a
Google y pone en el buscador “paletas de limón”, el SEO
permitirá que en los resultados aparezca su página en los
primeros lugares.

Es decir, a través del SEO puede hacer que la página de


Limonaleta sea la primera que vea el internauta que buscó
“paletas de limón” en Google. Esto le da la ventaja sobre sus
competidores, ya que las primeras páginas que aparecen son
siempre las más visitadas. Pero dejando de lado eso por el
momento, usted se daría a conocer de una manera efectiva,
ya que cada vez que alguien llegara buscando “paletas de
limón” se toparía inmediatamente con el sitio de Limonaleta.

Existen muchas herramientas SEO para conseguir el propósito


de colocar a la página en el primer sitio de Google o Yahoo!
cuando alguien realice una búsqueda relacionada con el
producto. Bien es cierto que no basta con que un solo criterio
de búsqueda brinde el resultado deseado; es decir, que si
alguien busca “nieve de limón”, “limón frío” o “helados
deliciosos”, la página de Limonaleta debe quedar también en
primer sitio. Para lograr esto necesitamos ubicar al lector en
otro concepto clave para el SEO: las keywords.
2-3. Keywords

Las keywords o palabras clave (que siendo estrictos deberían


llamarse frases clave, ya que muchas veces se componen de
más de una palabra) son un elemento fundamental para el
posicionamiento web. Es por ello que se deben seleccionar las
correctas para nuestro sitio; es a través de las palabras clave
que la herramienta SEO funciona. Retomando el ejemplo
anterior, las palabras clave del sitio de Limonaleta serían
“paletas”, “paletas de limón”, “nieve de limón”, “paletas
deliciosas” y “postres de limón”.

Así, cuando una persona busque en Google, Yahoo!, etc.


“paletas deliciosas” o “nieve de limón”, la herramienta SEO
permitirá que el robot (programa de búsqueda) de esos
buscadores localice inmediatamente el sitio de Limonaleta.

Keyword Tool de Google

Google, el buscador más importante de la red, nos ofrece la


herramienta de búsqueda de palabras clave para conocer
cuáles son los criterios de búsqueda que más utilizan los
internautas; de esta manera, es mucho más sencillo saber
elegir cuáles son las mejores palabras clave para nuestro
sitio.

Esta herramienta nos permite analizar las palabras clave;


muestra cuántas veces ha sido buscado un término en
búsqueda global y local, así como su posible costo por clic.
Nos permite verificar las búsquedas como exacta, amplia y
frase.
§ Exacta: nos indica un análisis de la palabra exacta.

§ Amplia: nos indica un análisis con todos los términos


posibles que pueda englobar dicha idea

§ Frase: se usa cuando se necesita hacer una campaña


por ejemplo: “Yogurt la bebida más sabrosa” vs “Yogurt
sobre su cuerpo” para elegir una mejor campaña.

Ejemplo:

Supongamos que tenemos la página:

www.superdelicia.cl

Giro: venta de chocolates.

Usaremos el Google Keyword Tool para buscar el término


chocolate, primero como exacta, dado que la página es
chilena (o al menos la extensión de dominio es tal).
Configuraremos el GKT para buscar primero en término
exacto el término “Chocolate”.

Para ello, colocamos en “Words or phrase” la palabra


chocolate; hacemos clic en el botón “+”, y aparecerá la opción
para definir el lugar en el que queremos buscar. Definimos el
país donde queremos encontrar la cantidad de búsquedas de
dicha keyword y aparecerán tanto de forma global (Google)
como local (Google Chile).
Luego, buscaremos en “amplia” para ver qué palabras nos
podrían convenir para usarlas como palabras clave.

Ahora, buscaremos frases populares que puedan describir a


nuestro sitio.
Importante: si la búsqueda nos arroja más de 500,000,
posicionar el término será bastante complicado, ya que entre
más sea buscada esa palabra, más sitios la usaran entre sus
keywords. Lo mismo sucede cuando los términos no tienen
muchas búsquedas (menor de 1000), ya que es signo de que
casi nadie busca esas palabras.

2-4. Herramientas de indexación.

Estas herramientas nos ayudan a que lo robots nos lean en la


web una vez ya dados de alta en los principales motores de
búsqueda5. Un robot de búsqueda es un script (pequeño
programa) que hace una función importante la cual es
rastrear contenidos y almacenarlos en la base de datos del
motor de búsqueda.

5
Darse de alta en un buscador no tiene costo alguno. Hay empresas que lo “ofrecen”
como uno de sus servicios a un precio fijo. No se deje engañar.
Existen muchos motores de búsqueda como los son
Altavista, Yahoo!, Google, Bing, Excite y Ask, entre otros.
Nosotros usaremos un par de herramientas, las cuales nos
servirán para que el trabajo del robot del motor de búsqueda
sea más fácil y nos posicione más rápido. Estas herramientas
se llaman XML sitemaps y robots.txt.

El uso y configuración de un archivo robots.txt

Un robots.txt es un archivo que indica al robot o spider qué


tiene permitido hacer; el archivo en sí contiene los privilegios
que uno da a los motores de búsqueda.

Creamos un documento que se llama robots.txt, el cual


contendrá lo siguiente:

User-agent: *

Disallow:

User-agent: * indica que están permitidos todos los spiders,


y Disallow: que está permitido mostrar todos los directorios
posibles del sitio.

Ahora, si sólo queremos que el spider de google nos


encuentre, se debe usar el siguiente script:

User-agent: Googlebot

Disallow:

Si deseamos que en las búsquedas sólo se muestren


imágenes relacionadas con nuestro sitio, hacemos lo
siguiente:
User-agent: Googlebot-image

Disallow:

Un ejemplo sencillo: usamos la plataforma Wordpress para


blogs, y queremos que en la búsqueda no se muestre el
directorio de administración y entrada al sistema6.

User-agent: *

Disallow: /wp-admin

El uso y configuración de un XML Sitemap

Un XML sitemap es un archivo, una plantilla que almacena la


estructura y contenidos básicos de una página como
categorías de un menú, keywords, nombre y descripción del
sitio y el árbol de directorios de nuestro hosting.

Hay sitios que generan estos documentos o plantillas, como


www.xml-sitemps.com y Google.

La desventaja de tener un sitemap generado por Google es


que solo lo leerá el spider de ese buscador.

Ahora bien, es importante señalar el funcionamiento de un


sitemap para entender la forma en que nos ayuda a indexar
para que los robots y spiders de los motores de búsqueda
lean el contenido de nuestra página.

6
En esta página encontrará la lista de algunos User-agent que se pueden hallar:
http://www.jafsoft.com/
¿Cómo funciona un XML sitemap?

Hay otro script llamado crawler, que es el que indexa los


contenidos de tu web en las bases de datos de los motores de
búsqueda, una vez que el spider ya ha hecho la identificación
del sitio.

2-5. Etiquetas y Meta Tags

Es muy importante que la estructura del HTML sea coherente


y vaya de acuerdo a los parámetros y estándares con la que
fue declarado, ya sea HTML simple, HTML estricto, XHTML o
DHTML. La estructura HTML debe ser validada, ya que entre
más errores tenga una página, más difícil será posicionarla.

La mayoría de los sitios web que están bien posicionados son


validados con la herramienta que viene en la página de la
w3c.
Una página sin errores HTML hace que el crawler la tome en
cuenta en el primer momento en que este empieza a trabajar
en ésta. Muchas veces, quienes trabajamos en esto nos
hemos dado cuenta que la mayoría de las personas sin un
mínimo de conocimiento de campo, y que se dan a la tarea de
hacer páginas de mala calidad, usan plataformas que no
sirven de mucho, ya que algunos lenguajes web que no son
estándares de ésta son forzados a validarse de una manera
no natural. Esto hace que haya incongruencias en el código.
Tal es el caso de las plataformas comerciales y módulos que
venden para sistemas de contenido como Wordpress, drupal,
prestashop, joomla, mambo, Jaws Project, entre otros. Existe
un caso en concreto el cual al tratar de validar surgen muchos
errores: el sistema de módulos de paga de Wordpress;
Semiologics es una herramienta que potencializa la indexación
de links de tu sitio web, ya que floodea o inunda de enlaces
un crawler, y puede duplicar los links, lo cual es una ventaja
para el posicionamiento de artículos. Las desventajas son que,
a la larga, el crawler lo tomará como un sitio de spamdexing
(de lo cual se hablará más adelante), además de que sólo
trabaja para sitios con contenido dinámico, es decir, sitios que
se actualizan día con día, como es el caso de un blog o un
periódico. Pero si su página es de contenido estático, este
sistema no funcionará.

El validador funciona de tal manera que primero leerá el tipo


de documento, lo cual vendrá en la primer línea de el código
HTML.

Es importante que su código comience con la declaración del


tipo de documento que es, ya que de no ser así, en la
validación que hará el sistema del motor de búsquedas no lo
tomará en cuenta en primera instancia, sino hasta que
empiece a leer el resto del contenido, dando preferencia a
otros sitios web con mejor validación.

Algunos programas que crean esta etiqueta automáticamente


son Adobe Dreamweaver, Aptana y Bluefish, entre otros. En la
experiencia de los autores, se recomiendan, ya que facilitan la
programación en muchas ocasiones. Aptana tiene la ventaja
de validar el código aún cuando a éste se la haya incluido
algún script de javascript o ajax.

Las tags (etiquetas en español) que son tomadas en cuenta


por el crawler son las que se encuentran dentro de las
etiquetas que declaran la cabecera del documento
<head></head>.

Existen tres tipos de etiquetas, las cuales se declaran dentro


de <head></head> y son:

§ <link />
§ <meta />
§ <title></title>

<link /> se utiliza para incluir estándares o scripts que de


alguna forma el documento necesite; de esta forma, uno
puede incluir muchas ligas de dependencia sin que se arruine
la validación.

<meta /> son las etiquetas que determinan la información


que contiene la página, además de concederle privilegios al
robot acerca de los contenidos de éste.

<title></title> Simplemente determina el nombre del


documento HTML.

<title></title>

Muchas veces, al programar se nos olvida editar esta


etiqueta, es importante su edición ya que determina el
nombre de la página en un sitio web. En la siguiente imagen
se muestra cómo un robot determinó que Untitled
Document es el nombre de la página, pero éste es el valor
por default que crea Dreamweaver y que debe ser editado.

En una búsqueda exacta, google nos arrojó 17 millones de


páginas de las cuales solo el 14% son intencionales, el resto
son errores de novatos.
En la siguiente imagen, mostramos una buena validación para
title y cómo de manera efectiva se posicionó de forma natural
quedando en los primeros lugares del posicionamiento.

Esto es porque en el código, el title se muestra de la siguiente


manera:

<meta />

Ya hemos definido lo que son y hacen estas etiquetas; ahora


vamos a mencionar las más importantes para nuestro
propósito, que es “el posicionamiento”.

Meta <description>

Esta etiqueta muestra una breve descripción del contenido del


sitio; es bastante funcional, ya que es una alternativa a las
keywords y permite ser analizada por los motores de
búsqueda.
En el ejemplo de los autos usados, esta etiqueta se ve de la
siguiente manera:

Enmarqué un error grave en código, que provocaría que la


validación fuera errónea. La forma correcta de usar la
etiqueta meta es

<meta />

Y no

<meta></meta>

Obviamente esta etiqueta que cierra en el ejemplo no fue


tomada en cuenta por el crawler.

La forma correcta sería

<meta name=”description” content=” Autos usados” />

En este ejemplo, el error no es tan grave, aunque pudo


haberle restado tiempo al posicionarse haberla escrito de la
manera correcta.

En la imagen se muestra el resultado de la búsqueda del


término “auto”, y como es que el motor de búsqueda, tomó el
contenido de la meta <description>.
Meta <keywords>

Las palabras clave son quizá la parte más importante en el


SEO; con ellas se puede describir un sitio en 2 a 10 términos
como máximo. Uno de los errores más comunes es declarar
más de 10 términos. Las palabras clave o keywords son los
términos con los que la gente identificará tu sitio; hoy en día,
necesitamos del Keyword tool de google para obtener los
términos correctos, o más bien, los términos más buscados
mensualmente por la gente.

Como ya se ha dicho, los motores de búsqueda sólo leen los


primeros 10 términos, mientras que los demás son ignorados.
En la imagen anterior se muestra claramente que
sobrepasaron los 10 términos. Si usamos el CMS para blogs
Wordpress, encontraremos un plug-in llamado All In One
SEO Pack, que nos permite incorporar Tilte, Description &
Keywords distintos a cada uno de los artículos y páginas que
uno vaya creando. Esto potencializará de manera validada
nuestro sitio web.

Meta <Distribution>

Es una etiqueta que nos indica el destino del contenido, si


será distribuido de manera global o de manera local,
dependiendo de cuál sea el campo o el mercado que
deseemos conseguir.

En el siguiente ejemplo se ve una búsqueda Global de un


producto como “Uniformes de fútbol”.

Supongamos que tu página es “http://zonafutbolera.com”;


entonces tu posición natural es la #1 en búsquedas, pero si
buscamos de forma local tu página no la encontrarás. Al dar
“Mostrar resultados solo en México”, el motor de búsqueda
sólo mostrará los sitios con distribución local.
Meta <Rating>

Sirve para indicar el tipo de contenido, si es apto para todo


público, contiene desnudos o contiene material no apropiado.
Esta etiqueta trabaja directamente con el filtro de búsquedas
del motor; por ejemplo, si buscamos “brutal asesinato” con el
filtro desactivado, nos mandará directamente a los resultados
con ese término.
Mientras que si activamos el filtro, antes de enviarnos a los
resultados del término, nos enviará noticias recomendadas.

El problema con Google es que su filtro es no es muy seguro y


deja pasar muchos resultados. Hay que tomar en cuenta que
Google hace negocio con su motor de búsqueda, mientras que
Yahoo! y Bing tienen tratos comerciales con publicidad en sus
contenidos de noticias.

El uso correcto de esta etiqueta se define de la siguiente


forma:

Donde General es para los contenidos que van dirigidos todo


tipo de gente; Mature es para los contenidos que muestran
desnudos; mientras tanto, Restricted es para los contenidos
que pueden atemorizar o traumatizar a cierto tipo de gente.
Meta <Robots>

Esta etiqueta le indica a los spiders o robots de los motores


de búsqueda qué privilegios tienen con el contenido y los
enlaces que hay dentro de la página. Más adelante
hablaremos de los backlinks y el problema con esta etiqueta.
Su estructura queda de la siguiente manera:

Para esta etiqueta sus propiedades pueden ser las siguientes:

Donde:

a) INDEX, FOLLOW indica que todo el contenido será


indexado y los links podrán ser seguidos;
b) INDEX, NOFOLLOW indica que los contenidos serán
indexados pero los links no serán seguidos;
c) NOINDEX, FOLLOW quiere decir que los contenidos no
se mostrarán, pero que los enlaces o links podrán verse
por todo el internet. De esta forma es en la que
trabajan las páginas empresariales que Facebook
ofrece;
d) NOINDEX, NOFOLLOW se utiliza para informes que
pueden ser públicos, pero en su caso se restringen a
los motores de búsqueda.
Meta <Revisit-after>

Esta etiqueta le hace saber a los motores de búsqueda cada


qué tiempo pueden los robots o spiders regresar al sitio para
indexar el contenido en el motor de búsquedas, su estructura
debe ser así:

De forma contraría a lo que se maneja muchas veces, las


propiedades de esta etiqueta solo pueden ser las siguientes:

· 1 Day (De forma diaria)


· 7 Days (De forma semanal)
· 31 Days (De forma mensual)
· 180 Days (De forma semestral)
· 365 Days (De forma anual)

Si, por ejemplo, se escribe otro número, el robot hará una


media y determinará cuándo regresar según los tipos que ya
han estado por default. Esto sólo sucede con Yahoo!, Alexa,
Bing y Google; Excite y AOL, si no encuentran la propiedad
correcta, jamás revisitarán el sitio. Esto último sucede con
muchos de los motores de búsqueda que se encuentran en
internet y nos dejan poner nuestros backlinks y submissions
en ellos.

Pero, ¿cómo funciona la famosa media? Supongamos que


usted puso una etiqueta así:

<meta name=”Revisit-after” content=”3 Days” />


De 1 a 7, su media son 3.5 días; entonces, el robot determina
que hará una visita diaria, ya que 3 < 3.5, pero si usted puso
en su etiqueta:

<meta name=”Revisit-after” content=”4 Days” />

entonces lo tomará como una semana, ya que está más cerca


de 7 debido a que 4 > 3.5. De esta forma, se autocorregirá.

2-7. Submissions

Todo lo anterior sería inútil si usted no se da de alta en los


buscadores. El término submission proviene del inglés y hace
alusión a “darse de alta” o enviar contenido a directorios de
noticias. Muchos ofrecen estos servicios de manera gratuita;
el caso más hablado es el de AddMe.com, que utiliza una bulk
submission, que sólo es un envió de links de
www.supagina.com a todos los posibles motores de búsqueda
que ofrecen este servicio gratuito.

El sitio www.freewebsubmissions.com nos ofrece enviar


nuestros links y contenido a buscadores o directorios de
contenido, como podrían ser:
También ofrece un top ranking de sitos en los que podemos
darnos de alta de forma manual, y que su valor es INDEX,
FOLLOW.

La primer columna nos indica el nombre de la página; la


siguiente columna, indica la posición que ocupa dentro del
Rank de Alexa.com; la última columna indica el PageRank de
Google, donde 1 es lo más bajo y 10 lo más alto. Más
adelante se hablará de forma más extensa del PageRank de
Google.

2-8. Search Engine Marketing

El Search Engine Marketing o Publicidad en Buscadores es un


servicio de paga con el que comercian los principales motores
de búsqueda, como lo son Google, Yahoo! y Bing. Google es la
empresa que lidera el mercado y ha creado herramientas para
una mayor explotación de este servicio, como son Double
Planner, Google Trends, Google Webmaster Tools, Google
Adwords, Google Adsense, Google Analytics y algunas
herramientas que son descargables en Google Apps.

En la siguiente imagen se muestra un claro ejemplo de cómo


Google explota su buscador.
En la zona baja se muestran keywords relacionadas, que son
las palabras clave con las que comercia. Dando clic a uno de
esos enlaces, mandará al internauta a una búsqueda donde se
mostrarán resultados en posición natural (los resultados que
están en blanco en la imagen) de los sitios que pagan
keywords para ser posicionados.
Capítulo 3

Tráfico web

El tráfico web consiste en la cantidad de visitantes de un sitio


web. El propósito más importante del SEO es aumentar el
tráfico en su página. Para ello, existen varias accione a seguir,
las cuales describiremos en este capítulo.

3-1. Dirigiendo el tráfico web

Existen muchas maneras para obtener un gran número de


visitas en tu web, pero realmente pocas son efectivas. En esta
parte del libro explicaremos las 3 formas más sencillas, pero
que de cierta forma encabezan la lista de herramientas para
obtener tráfico en tu web.

Antes que nada, recordaremos una propiedad que viene


dentro del código de las páginas webs de donde obtendrá su
tráfico; recuerde la Meta <Robots>. Existen dos propiedades
que deberemos de conocer muy bien una es INDEX, FOLLOW
y la otra es INDEX, NOFOLLOW.

Supongamos que usted escribe un comentario en una página


web que habla de temas relacionados con sus contenidos; en
el comentario, deja el link de su página, escribiendo “Aquí
para mayores informes…”. Si en esa web se encuentra una
meta-tag de “robots” con una propiedad INDEX, NOFOLLOW,
de nada servirá qué usted deje su link ahí, ya que el robot no
lo tomará en cuenta, pero si tiene una propiedad INDEX,
FOLLOW, usted podrá estar seguro que se difundirá por toda
la red. Estos enlaces que hacen referencia a su sitio se llaman
backlinks o enlaces de retroceso.

3-2. PageRank

El PageRank de una página es un status que otorga Google.


Existen muchos mitos alrededor del PageRank, los cuales
explicaremos a continuación.

El Pagerank fue creado, registrado y patentado por los


desarrolladores de Google en 1999. A través de esto, Google
determina un status de 1 a 10, dependiendo de la cantidad de
enlaces que existan en la red para una página determinada.
Por supuesto, para obtener mayor estatus se requiere que la
página en la que se pongan los enlaces tenga también un
buen PegeRank. Google desarrolló una fórmula para calcular
el PageRank de una página:

Donde PR(A) es el PageRank de su página, d es una variable


arbitraria (factor de amortiguación), PR(i) es el PageRank de
los sitios que enlazan a su página A y C(i) es el número de
enlaces salientes de las páginas i.

Ahora bien, ¿el PageRank asegura una mayor cantidad de


visitas? No siempre; es más, no es la mejor manera. Este es
el primer mito a derrumbar. Explicamos.

Si usted contrata una campaña de publicidad en línea de


Google, su PageRank subirá aunque no coloque miles de links
en la web. Es sólo una forma de otorgar cierto “status”, pero
la cantidad de visitas no dependen del PageRank:

Muchos quisiéramos tener 40,000 visitas en poco más de dos


años que lleva ese blog funcionando.

El PageRank, por otra parte, genera mucho spam en los sitios,


por lo que no es una forma muy recomendable de lograr
aumentar el tráfico web.

3-3. Backlinks

Los enlaces de retroceso sirven para indicar que su web


también habla del mismo tema que el sitio en donde los
coloca. También sirven para referenciar y redirigir el tráfico
web de esta página madre a su página hija, por decirlo así.

Existen muchos sitios que ofrecen servicios de forma manual


para que usted publique sus contenidos y enlaces que
referencien a tu página web en el internet, como son
Technorati, Reddit, Digg, StumbleUpon, Delicious, Fresqui,
netvibes, YahooBuzz, Goolge Buzz, Mister-Wong, Evernote,
stumpedia, posterus, arto, tiwtter, tipd, jumptags, plurk,
netlog, identi.ca, smaknews, xerpi, wink, kledy, pusha, faves,
Yigg, Segnalo, fark, slashdot, tailrank, jamespot, Yample,
wists, siteJot, tagza, flokd, hyves, sphere, maple, tuenti,
simpy, spurl, sphinn, diigo y NetVouz; se trata de sitios
INDEX, FOLLOW, en los que usted podrá poner sus backlinks
de manera exitosa.

Otros sitos que usted ha visto que son muy visitados, y debe
evitar ya que son INDEX, NOFOLLOW son Facebook (no
páginas empresariales), MySapce, Bebo, Hi5, Xing, Ning, MSN
y Yahoo Groups.

Si usted cuenta con capital suficiente, sería mejor contratar


un outsourcing que haga este trabajo tedioso, mientras usted
se dedica a otras cosas dentro de su página web.

El sitio web http://www.forumlinkbuilding.com/ ofrece un


servicio de creación de backlinks, y cuenta con 3 paquetes
básicos en los cuales usted tendrá garantizado que serán
puestos en sitios con un alto tráfico de usuarios.

Las principales ventajas como lo muestra en su imagen el sitio


son:
Entonces, sus links o enlaces se publicarán en foros de un alto
PageRank (de 6 a 9), y no en forma de spam para que no
sean tomados como spamdexing.

Los backlinks hoy en día, si no se hacen de la forma correcta,


son tomados como comentarios spam, tal como ocurre en un
sitio que administramos y en la siguiente imagen se muestra.

En la imagen se aprecia cómo no hay una estructura definida


en el mensaje; sin embargo, lo que más se resalta de estos
links es la dirección web, que en este caso serían los links de
retroceso a esas páginas. Muchos sitios que ofrecen backlinks
hacen esto ya, que les resulta fácil defraudar a la gente
cobrando cantidades ridículas como $3 dólares por 1000
enlaces de retroceso.

La página que administramos tiene un tráfico mensual de 300


personas; no tiene PageRank ni esta rankeada en Alexa; es
uno de los muchos proyectos olvidados que tenemos, ya que
no produjeron lo que se esperaba debido a que las tendencias
de la gente y lo que buscan varían mucho día con día. Por eso
les recomendamos estar pendientes en su Keyword Tools
de Google, para analizar el comportamiento de la gente
respecto a lo que usted ofrece.

Así hay muchos sitios que tratan de despegar de páginas del


montón, y que son invadidas por estos sistemas de backlinks.
Estos sitios no son lo que prometen:

NO SON SITIOS CON PageRank y, sobre todo, “JAMÁS SE


DIFUNDIRÁN LOS LINKS”, debido a que son sitios web
INDEX, NOFOLLOW.

3-4. Labor Social

Algo muy importante que puede hacerse para aumentar el


tráfico es colocar enlaces o referencias en una “página
amiga”; es decir, referirse mutuamente para así generar más
links. Se podría llamar “un intercambio”, en el que un amigo
coloca links referenciado su sitio, y usted regresa la cortesía.
Ahí tenemos el ejemplo de cómo se realiza esto. Es
importante, por ello, tener siempre contactos en la red para
poder realizar esta llamada labor social, y así cooperar
mutuamente para incrementar el tráfico. Lo mejor es formar
un grupo enorme de páginas amigas que se refieran entre sí
para conseguir el tan deseado tráfico.

3-5. Trackbacks

Los trackbacks o enlaces de seguimiento son enlaces, los


cuales nos indican quién nos ha mencionado en su página y
nos permiten hacer un análisis estadístico de cuánta gente o
páginas nos hacen referencia mediante pingbacks. Es decir, el
trackback es el enlace que llega a su página y que indica que
han hecho referencia a un contenido suyo, mientras el
pingback es el enlace a su página que se encuentra en el sitio
desde el que han hecho referencia a su web.

Hoy en día muchos, CMS (Content Magnament System) usan


este tipo de herramientas. Los más populares, Drupal y
Wordpress, las han especializado hasta el punto de que uno
ya puede saber a ciencia cierta el porcentaje de rebote y el
tiempo que pasa un navegante en el sitio, tal como sucede
con Google Analytics.

Google Analytics nos ofrece un script con el cual podemos


analizar lo que sucede en nuestro sitio. Este código hace un
pingback a Google mientras está incrustado en nuestra
página; lo que hace es generar un trackback mediante el
código de campaña que se le asignó y manda todos los
enlaces de la página para analizarlos. De esta manera, nos
puede informar del tráfico y la cantidad de usuarios únicos
que la visitan.

3-4. Analizando nuestra web

Al analizar nuestra web nos encontramos con varias formas


de saber qué tan popular es nuestro sitio. Google ofrece un
script de búsqueda mediante un pingback, el comando site.
Mediante este comando, nosotros sabremos cuántos links
registrados en Google existen; en este caso, en la imagen nos
muestra que hay 982 resultados que provienen de Mulevi.
Al buscar directamente en Google “mulevi.com”, nos mostrará
no sólo estos enlaces que salen de nuestra página, sino
también los backlinks de ésta y otras webs que nos han
mencionado.

Muchas veces, a pasar de que otras páginas nos han


mencionado o nos han hecho pingbacks, no siempre son
tomados como backlinks debido al INDEX, NOFOLLOW. En la
siguiente imagen nos muestra cómo desde Twitter el sitio
www.topsy.com nos refirió.
El sitio topsy.com, a pesar de que es un directorio de “popular
tweets”, no es un sitio que ofrezca backlinks debido a su
configuración no importando que sea INDEX, FOLLOW.
Sucede esto porque el pingback no fue directo, sino desde un
sitio web tercero, que en este caso es twitter. En la página de
abajo, veremos cómo efectivamente topsy.com hizo un
rastreo desde una cuenta de twitter, @RockyQuintanar.

Entre uno de mis sitios favoritos está WooRank, que nos


permite analizar nuestra web mediante un pingback.
Al generar el reporte de nuestra web, nos muestra datos que
nos interesan, como el tráfico total, siempre y cuando
estemos dados de alta en Double Planner, que es un sistema
para hacer y analizar campañas SEM o Publicidad en
Buscadores. De no ser así, usted deberá utilizar las
herramientas de Google Analytics para estimar el tráfico de su
web, pero no podrá saber cuál es el valor total de su página.

Además de mostrarnos en qué posición nos encontramos en


alexa.com, nos dirá cuantos backlinks tenemos en la página.
En este caso tenemos 2 backlinks, y dado esto, nuestro
PageRank no existe, pero debemos recordar que el PageRanK
no está directamente ligado con el tráfico de la página; es
decir, no importa qué tanto PageRank tenga nuestro sitio,
pues esto no hará que haya miles o millones de visitas (como
ya se ha mencionado).

Mediante Google Analytics sabremos a ciencia cierta el tráfico


real que visita nuestra página. En la imagen de abajo, se
muestra el famoso script de seguimiento escrito en el
lenguaje JavaScript; ese código tiene un número asignado por
el sistema, que es el código de referencia de la campaña. El
número o código de campaña sirve para identificar a ésta.

En nuestro panel de Google Analytics podremos analizar un


número indeterminado de campañas según necesitemos.
Podemos analizar desde una página web entera, un directorio
o hasta un link de descarga.

La imagen de abajo nos muestra el panel de registros que


analizamos y efectivamente ahí deberá aparecer el código de
campaña remarcado en azul.
Si recordamos, nosotros sólo teníamos 2 backlinks; éstos
están ligados directamente al PageRank. La página
www.mulevi.com tiene una afluencia de usuarios de 635
visitas al mes, no importando que no tenga PageRank.

¿Cómo saber cuánto PageRank tiene nuestro sitio? En la


página http://www.prchecker.info usted podrá encontrar una
herramienta en línea que determina el PageRank de su sitio
web.

Otra forma son las extensiones de Google Chrome, si usted


usa este navegador web, que para nosotros es el mejor,
además que sus herramientas de programación lo hacen
incomparable.
En nuestro caso, usamos tres herramientas muy buenas de
las extensiones de Google Chrome; se recomiendan porque, a
comparación de otros navegadores, las herramientas no
quitan espacio al navegador. En el cuadrito rojo podrán
observar esto.

Las extensiones que recomendamos son “PageRank”,


“PageRank Status” y “SEO y Posicionamiento Web – Informe”
FAQ (Preguntas Frecuentes)
¿En qué parte se ponen las Meta-Tags?

En cualquier página HTML, entre las etiquetas <head> </head>; si,


por ejemplo, usted tiene un CMS como Drupal o Wordpress,
deberá colocarlas en el archivo index.php del tema que esté
seleccionado, y no en la página principal index.php del
sistema de contenidos.

Ejemplo: en Wordpress, suponiendo que tenemos el tema


llamado Benzzo.

http://tusitio.com/wp-content/themes/benzzo/index.php

Y NO en:

http://tusitio.com/index.php

¿En dónde se ponen los archivos sitemap.xml y


robots.txt?

En el directorio raíz, es decir:

http://tusitio.com/sitemap.xml

http://tusitio.com/robots.txt

¿Sería bueno ofrecer un servicio de backlinks en mi


página web?

Sería un gran apoyo de su parte, pero debe tener en cuenta


que muchas compañías de backlinks tomarán ventaja y
lucraran con su sitio sin que se dé cuenta. También debe ser
consciente que su página se llenará rápidamente de SPAM,
haciendo ver a su sitio cómo un sito de spamdexing.

¿Con cuántos backlinks se puede tener un PageRank


alto?

En la tabla que viene en el sitio http://www.softdivision.com/


podrá observar a detalle las características del PageRank y
cuántos backlinks necesita.
¿Un blog de Blogger.com se puede posicionar?

Sí; en la imagen se muestra la ruta que deberá tomar para


editar los que usted necesite. Hay que tomar en cuenta que
debe darse de alta en los buscadores y no dar por hecho de
que como Blogger es una herramienta de Google ya se hace
por automático.

¿Un blog de wordpress.com se puede posicionar?

NO; definitivamente no.

¿Se puede posicionar una página web si no la doy de


alta en buscadores?

Es difícil; también depende de la cantidad de usuarios que la


visiten al día. Si son más de 100 usuarios únicos, es decir,
usuarios con una IP única, no necesitará dar de alta su web.
Pero es difícil que una página relativamente nueva tenga esa
cantidad de usuarios.

¿Qué sistema de contenidos recomiendan para hacer el


posicionamiento además de wordpress?

Drupal, Mambo, Joomla, PHPNuke, vBulletin, Jaws Project.


Pero si necesita un CMS para comercio en línea, es
recomendable usar los que se manejan bien con PayPal.

Para accesar al siguiente link, debe haber entrado a su cuenta


de PayPal. En este enlace aparecen todas las aplicaciones
para venta en internet.
https://www.paypal.com/mx/cgi-bin/webscr?cmd=xpt/Marketing_CommandDriven/bizui/IntegrationThirdParty

¿El PageRank determina el tráfico web de mi página?

No; definitivamente no.


Si usted tiene alguna duda o pregunta respecto a algún
contenido de este libro, por favor póngase en contacto a la
siguiente cuenta de correo electrónico. Tenga por seguro que
no demoraremos en contestar sus dudas.

softpherapress@ymail.com
Bibliografía

Para la realización de esta obra se consultaron las siguientes


fuentes, que se recomiendan ampliamente para completar la
información aquí vertida.

Levy, Pierre. ¿Qué es lo virtual? Barcelona, Paidós, 1999.

Fischer, Laura; Navarro, Alma; Espejo, Alberto. Investigación


de Mercado. Teoría y Práctica. Facultad de Contaduría y
Administración. UNAM, 2009.

Stanton, William J, et. al. Fundamentos de Marketing. 13a.


Edición, McGraw-Hill, México, 2003.

Revistas:

Revista Software Guru, Año 03, No. 4, Junio-Agosto de 2007.


+DE3 A4C3 D7 5A@5>FJO 7@ A5EF4C7 67 ’%&% 7@
);F636 67 .NI;5A
,F7 ;?BC7D3 BAC >AD 3FEAC7D J
>3@K363 3 EC3GND 67 >3 H74 5A?A 7"4AA= 9C3EF;EA#

También podría gustarte