Está en la página 1de 23

Introducción al concepto SEO

Llamamos SEO ( Search Engine Optimization ) o Optimización para Motores de Búsqueda


a cualquier técnica utilizada para mejorar la posición de una determinada página web en los
resultados de las búsquedas en los buscadores de Internet, también llamamos SEO a las
personas encargadas de realizar estas técnicas.

Tabla de contenido
 · ¿Porque mejorar la posición?
 · ¿Como mejorar mi posición?

¿Por qué mejorar la posición?


Se calcula que tres cuartas partes de los usuarios nuevos de una página web proviene de las
páginas de resultados de los buscadores. Como es natural, si no aparecemos en las páginas
de resultados, perderemos un 75% de visitas potenciales a nuestro sitio web.

Asimismo, no es igual salir en la primera posición, que salir en la vigésima página, como
tampoco es lo mismo ser el primer resultado buscando la palabra "PHP" ( que recibe miles
de búsquedas al día ) que serlo buscando "PHP bajo la sombra del olivo" ( que con suerte
recibirá alguna búsqueda cuando publique este artículo ) por lo que nos interesará trabajar
para mejorar la posición en unas determinadas búsquedas.

Todos estos factores incrementarán el tráfico de nuestra página web, y es por esto que el
SEO se ha convertido en los últimos tiempos en una de las herramientas más cotizadas por
los webmasters

¿Cómo mejorar mi posición?


El primer paso para mejorar la posición de nuestras páginas es entender de que manera los
buscadores recolectan la información de nuestras páginas ( se explicará en próximos
artículos ) y en función de que parámetros la ordenan en las páginas de resultados.

Conociendo esto, podremos hacer que los buscadores recolecten correctamente la


información de nuestros sitios y finalmente podremos intentar modificar estos parámetros
( utilizando técnicas más o menos elegantes ) con tal de mejorar nuestra posición

Los robots de los buscadores


Un robot de un buscador, llamado también spider o crawler, es un programa que accede de
forma automática a páginas web y recolecta una determinada información sobre su
contenido, frecuentemente las palabras clave y los enlaces de la página en cuestión.

Nota:
Para saber que información ve un robot, puedes usar nuestra herramienta para ver una
web tal cómo la ve el robot de un buscador

Cualquier buscador de páginas web, necesita disponer de una base de datos con la
información de todas las páginas que pueden llegar a aparecer en la página de resultados
( páginas indexadas ) , esta base de datos, se rellena utilizando precisamente un robot
distribuido entre varios ordenadores.

Tabla de contenido
 · ¿Como se rastrea todo Internet?
 · ¿Como consigo ser rastreado?
 · ¿Puedo evitar ser rastreado?

¿Cómo se rastrea todo Internet?


Para acceder al mayor número de páginas posibles, los buscadores acceden a unas páginas
introducidas manualmente en una lista ( semillas ) y guardan las URL de los hiper-vínculos
para descargarlas posteriormente.

Ningún buscador dispone de información actualizada de todas y cada una de la páginas de


Internet, pero realizan esfuerzos importantes para que sus robots rastreen todas las páginas
posibles luchando contra estos dos factores:
Gran volumen de páginas
Para luchar contra el gran volumen de páginas, los buscadores deben aumentar el número
de páginas descargadas por segundo, y esto lo consiguen mejorando su conectividad y la
localización geográfica y número de robots de rastreo.

Variabilidad de las páginas


Para tener siempre los contenidos actualizados, la solución no es tan sencilla como revisar
cada web más a menudo, porque esto supone un aumento enorme del número de páginas a
descargar. En estos casos lo que se hace es detectar el grado de variabilidad ( también
llamado frescura ) de cada documento indexado para determinar cada cuando hay que
revisarla.

¿Cómo consigo ser rastreado?


Para que un buscador rastree tu página web, primero deberá conocer tu URL, esto podemos
conseguirlo enviando la URL al buscador desde un formulario para que la guarde en su
base de datos, o poniendo enlaces hacia nuestra URL en otras páginas ya indexadas, vamos
a detallar más cada opción:
El formulario de URL's
La mayoría de buscadores disponen de formularios que permiten introducir la URL de tu
página para ser indexada posteriormente.
Este sistema suele ser menos interesante ya que un factor importante para aparecer en los
primeros resultados de un buscador es el número de enlaces hacia tu página y de esta
manera nuestra página tendrá 0 enlaces entrantes.
Recientemente, el buscador Google, ha introducido una nueva e interesante manera de
indicar al buscador que contenidos de tu web debe rastrear llamada sitemaps.
Los enlaces entrantes
Aunque para que un robot nos rastree encontrando un enlace entrante a nuestra página es
una opción más lenta ( hay que conseguir enlaces entrantes en sitios indexados, esperar que
el robot los rastree y apunte nuestra URL y esperar que finalmente nos rastree a nosotros )
sobretodo si contamos con el efecto sandbox, los enlaces entrantes son un factor importante
para conseguir una buena posición.
Ambas prácticas tienen sus pros y sus contras, por esto es aconsejable llevar a cabo ambas
prácticas simultáneamente.

Además si queremos que los robots nos visiten más a menudo, consiguiendo tener siempre
nuestro contenido actualizado en sus indices, deberemos aumentar el grado de variabilidad
o frescura de nuestras páginas modificandolas a menudo y aportando nuevos contenidos de
forma regular.

¿Puedo evitar ser rastreado?


Existen diferentes métodos llamados Métodos de Exclusión que permiten evitar que un
buscador rastree e indexe nuestra página, vamos a conocer algunos de ellos:
El archivo robots.txt
Meta-Tags específicos para robots
El formulario de solicitud de eliminación

El efecto sandbox
El llamado efecto sandbox, introducido por Google en Marzo de 2004 es la consecuencia
de la introducción en los índices de una especie de sala de espera en la que se indexan las
páginas de dominios recientemente registrados, páginas cuyo contenido y enlaces no serán
valorados por el buscador hasta que verifique su calidad.

Tabla de contenido
 · ¿Porque crear una sala de espera?
 · ¿Como evito este efecto?

¿Por qué crear una sala de espera?


Con la aparición del fenómeno SEO, aparecen técnicas poco elegantes para aumentar el
número de visitas hacia una determinada página web, técnicas que acostumbran a llenar los
resultados de las búsquedas de páginas que no tienen interés para el usuario del buscador.

Muchas de estas técnicas consisten en crear páginas web con el único fin de atraer visitas o
incluir enlaces a otras páginas para así mejorar su posición en el buscador.

A raíz de esta práctica, en Marzo de 2004 Google incorporó una sala de espera para páginas
nuevas, donde se depositan las aquellas páginas con muchos enlaces entrantes, ya que
Google considera difícil que una página contenga muchos enlaces en sus primeras semanas
de vida.

¿Cómo evito este efecto?


No todas las páginas indexadas por primera vez sufren este efecto, solamente aquellas que
se situarían directamente en las primeras posiciones se ven afectadas, por lo que no debería
representar un problema para la mayoría de páginas web ( que mejoran su posición con el
tiempo ).

La duración del efecto sandbox suele variar, y según estudios realizados parece que
aumenta cuanto más enlaces entrantes ( mayor ranking ) tiene una página nueva y varía
según el buscador pero puede llegar a los 6 meses o permanecer para siempre si no tenemos
unos contenidos actualizados.

Por estas razones es importante evitar el lanzamiento de páginas nuevas con muchos
enlaces entrantes ( campañas publicitarias de lanzamiento, spam en foros y comentarios... )
y debemos desestimar la utilización de técnicas fraudulentas como link-farms

Google Sitemaps 
Google Sitemaps es una nueva e interesante herramienta de
Google que permite, entre otras opciones, que el webmaster de
una página web le indique al buscador cuales son las páginas de
la web que tiene que indexar.

Un Sitemap proporciona a Google una vista adicional de tu sitio ( como un mapa del sitio
en HTML ) con información de URL, frecuencia de actualización ( frescura )... Este
programa no reemplaza los métodos habituales de rastreo web. Google seguirá buscando e
indexando tus páginas de forma tradicional pero puede ayudar a disponer de mayor
cobertura y de ofrecer un mejor tiempo de indexación a medida que según afirma la
compañía "perfeccionemos nuestros procesos y comprendamos mejor las necesidades de
los webmasters".

Tabla de contenido
 · Otras características
 · Como usar sitemaps

Otras características
Además, Google Sitemaps ofrece otras herramientas interesantes para conocer los detalles
sobre el proceso de indexación de nuestra página ( errores de rastreo, tipo de archivos
indexados, ... ) así como su posicionamiento ( palabras claves mas buscadas, posición en la
búsqueda ... )
Como usar sitemaps
Este artículo no pretende ser un tutorial sobre el uso de sitemaps ( esto quizás más adelante ) solo
pretende hacer entender su utilidad.

Si quieres aprender a usar sitemaps puedes utilizar el centro de asistencia para webmasters de
Google.

Los meta tags


Los meta tags son etiquetas que contienen meta-información de la página, es decir,
información que da la página sobre si misma.

Se sitúan dentro del head del documento HTML / XHTML, entre <head> y </head>,
contienen información útil para el cliente, ya sea un navegador o un robot de un buscador,
nos centraremos en el segundo caso.

Todo meta tag consta de dos atributos, name, que indica que información contiene y
content con la información.
Tabla de contenido
 · Indexar, no indexar...
 · Palabras clave
 · Descripción

Indexar, no indexar...
Con el name' robots', podemos indicar al robot que puede hacer con la página, los valores
posibles para el content son los siguientes, pueden especificarse varios separados por
comas:
index - Indexar esta página y hacerla disponible en los resultados del buscador
noindex - No indexar
follow - Seguir los enlaces de la página
nofollow - No seguir los enlaces
000  <html>
001    <head>
002      <meta name="robots" content="noindex, follow" />
003    </head>
004    <!--  ... -->
005  </html>
Maximizar  Seleccionar  XML
 

Palabras clave
Con el name 'keywords' podemos indicar al buscador las palabras clave de nuestro sitio
separadas por coma. Inicialmente los buscadores hacían mucho caso a este meta tag y a
description, pero actualmente este tipo de meta sólo suele usarlo tu competencia para saber
que palabras clave posicionas.

Puede ser un buen sitio para poner palabras clave secundarias o que es muy obvio que estás
posicionando.
 
000  <html>
001    <head>
002      <meta name="keywords" content="programacion,
003  programacion web, quiero hacer web, aprender a
004  programar webs" />
005    </head>
  <!--  ... -->
</html>
Maximizar  Seleccionar  XML
 
Descripción
Podemos incluir una descripción de la página con el meta tag description, pero si tenemos
muchas páginas en nuestro sitio esto puede ser un esfuerzo enorme y poco útil, ya que,
como se ha comentado, este meta tag ya casi no es considerado por los buscadores, salvo
algunos casos que ahora explicamos.

Si la página no tiene texto o si la búsqueda concuerda con el dominio ( ejemplo si buscas


programacionweb y sale programacionweb.net ) Google muestra cómo resumen de tu
página en la página de resultados la descripción de DMOZ o, si no existe, el contenido de la
descripción del meta tag.

Por esta razón, pondremos un description llamativo que promocione nuestro contenido de
hasta 160 caracteres en las páginas sin contenido de texto y en la portada si no aparecemos
en DMOZ:
 
000  <html>
001    <head>
002      <meta name="description" content="Aprende
003  fácilmente a programar páginas web sin ...." />
004    </head>
005    <!--  ... -->
</html>
Maximizar  Seleccionar  XML
 

El archivo robots.txt
 
El archivo robots.txt, nos permite especificar páginas de
nuestra web a las que no podrán acceder los sistemas
automatizados de rastreo de páginas web ( como por ejemplo
los robots de buscadores ), esto es útil para evitar que
algunas secciones cómo páginas de resultado de búsqueda,
URL's con parámetros no representativos, páginas privadas o
de usuario...

Es un protocolo de caracteres puramente consultivo que


confía en la cooperación del robot, de modo que excluir un
área de tu sitio con robots.txt no garantiza que no va a ser
accedida de forma automática, ya que existen robots que no cumplen este protocolo
( spambots ... ) e incluso existen algunos que utilizan robots.txt para encontrar nuevas
páginas que rastrear.
Tabla de contenido
 · El archivo robots.txt
 · Ejemplo

El archivo robots.txt
El archivo robots.txt debe tener como nombre ( que cosas tiene la vida ) robots.txt y debe
estar situado en la raíz de nuestro dominio:
http://www.programacionweb.net/robots.txt
En este archivo indicaremos las páginas que no pueden ser rastreadas utilizando única y
exclusivamente las siguientes directivas sensibles a mayúsculas:
Disallow - Especifica la URL que no puede ser rastreada
User-Agent - Especifica que robot no queremos que acceda a las URL marcadas con
Disallow hasta el siguiente User-Agent o el final del archivo.
Ambas directivas nos permiten usar el carácter asterisco ( * ) como comodín para una o
más letras.

Podemos escribir comentarios de una sola línea con el caracter almohadilla ( # ) al principio
de línea.

Ejemplo
Este es un ejemplo de robots.txt correcto:
 
robots.txt
000 # Permitir todas las páginas a todos los robots ... 
User-agent: * 
001 Disallow: 
 
002 # ... pero Googlebot no puede acceder al directorio /an
tigoogle/ 
003 User-agent: Googlebot 
Disallow: /antigoogle/
004  Maximizar  Seleccionar  CMD

005 

006 
 
Podeis ver y chequear el archivo robots.txt de vuestra web, con nuestra herramienta de
analisis y edición de robots.txt
Ordenamiento de los resultados
Para ser más útiles a los usuarios, los buscadores deben ordenar de mayor a menor
calidad/relación con lo buscado los resultados obtenidos para una determinada búsqueda.

Tabla de contenido
 · Relevancia
 · Factores dentro del sitio
 · Factores fuera del sitio
 · Factores basados en el tiempo

Relevancia
Para cada resultado obtenido, el buscador aplica hasta 100 criterios para determinar la
relevancia o "calidad" del resultado y después ordena los resultados de mayor a menor
relevancia.

No podemos afirmar cuales son los criterios o factores que utiliza cada buscador ni en que
porcentajes los utiliza, ya que todos guardan bajo llave su algoritmo de ordenación, pero,
estudiando los resultados de las búsquedas en diferentes buscadores, hemos podido detectar
los criterios de relevancia que explicaremos más adelante.

Conociendo a fondo estos factores dominaremos la manera de crear sitios web que
obtengan una mayor relevancia y, por lo tanto, aparezcan en los primeros resultados de los
buscadores y reciban más visitas de páginas de búsqueda.

Factores dentro del sitio


Llamaremos factores dento del sitio, aquellos factores de la página que analiza el buscador
para calcular su releváncia, sabemos que algunos de ellos són:
Posición de las palabras clave
El órden de las palabras clave
Frescura del contenido
Densidad de palabras clave
La calidad del contenido
La estructura interna de enlaces

Factores fuera del sitio


Además de analizar nuestro sitio, el buscador analiza factores externos para calcular nuestra
relevancia, sabemos que algunos de ellos són:
Enlaces entrantes
Grado de confianza del sitio web
Uso de contenido original

Factores basados en el tiempo


Existe otro tipo de factores en el que el buscador tiene en cuenta los cambios que se han
producido en el tiempo en relación a un documento:
Antigüedad del sitio
Edad de los enlaces

 Posición de las palabras clave


La posición / el lugar del documento en que se encuentran las palabras clave introducidas
por el usuario será de vital importancia a la hora de calcular la posición de este en la página
de resultados.

Normalmente (no siempre es así puesto que existen más factores), encontraremos mas
arriba un documento con las palabras que hemos buscado en su título (H1) que otro que las
tiene en su párrafo (P) numero 23.

A continuación mostramos la lista de posiciones que suelen ser consideradas cómo más
positivas, las ordeno según mis propias experiencias:
dominio
El nombre de dominio de segundo nivel es de mucha importancia en búsquedas con pocas
palabras claves. También tienen importancia los sub-dominios.

Deberemos considerar situar palabras clave en nuestro dominio y subdominios, si lo


hacemos, usaremos guiones ( - ) para separarlas. Intentaremos no superar los 2 guiones por
nombre de dominio y subdominio reservando siempre una keyword para el nombre de
nuestra marca.

title
El título de tu página web es un elemento en el que deben estar presentes tus palabras clave,
concentra esfuerzos en situar palabras clave en los títulos de todas tus páginas.

El título será de unas 9 palabras y se usarán únicamente palabras clave, evita usar el
nombre de tu empresa en el título si no se trata de una palabra clave y si no puedes evitarlo,
ponlo al final.

Algunas recomendaciones:
1 Sitúa el <title> al inicio del <head>
2 Utiliza tu palabra clave principal en todos tus títulos, olvida el nombre de tu empresa
3 Utiliza palabras clave secundarias diferentes para el título cada una de tus páginas de
contenido, optimiza la página entera para esa misma palabra clave secundária
4 No repitas tus palabras clave más de 2 veces en el título
5 No sobrepases las 9 palabras clave
primer párrafo
El primer párrafo tiene mucha importancia a la hora de determinar de que habla un
documento, será importante que contenga palabras clave específicas y enlaces a otros
documentos relacionados.

Deberemos cuidar la longitud de el párrafo que queremos usar cómo primer párrafo, si tiene
menos de 20 palabras será ignorado... y por otra parte si nos excedemos es posible que se
utilicen sólo las 20 primeras.

Es recomendable resaltar las palabras clave en negrita y cursiva en este primer párrafo.

url
La URL del documento es muy importante a la hora de situar palabras clave específicas del
documento. Las situaremos (no mas de 5) en el nombre del archivo y las separaremos por
guiones.

Podremos unir dos palabras clave por underscore (_) y contabilizarán como una sola, pero
solo lo haremos si tenemos la certeza que esas palabras serán buscadas en ese orden ( por
ejemplo general_motors, costa_brava... )

Será también importante usar palabras clave en las URL que apuntan hacia otros
documentos, en este caso también podremos situarlas en la ruta del documento aunque
obtendrán menor peso que en el nombre de archivo.

heading (h1, h2... )


Los títulos interiores del documento o encabezados tienen también una importancia, aunque
mas relativa. Usaremos un único H1 al principio del documento al que daremos las mismas
consideraciones que al <title>. Usaremos H2 para separar el contenido del documento,
situaremos palabras clave sobretodo en los dos primeros H2, que estarán situados antes y
después del primer párrafo.

alt/title
Los atributos alt y title de los elementos gráficos son interpretados por los buscadores y
tienen un peso ligeramente superior al contenido que las envuelve ( ya sea un H1, un primer
párrafo...).

Nota:
Puedes usar nuestra herramienta para obtener la importancia de las palabras clave de
una página web según su posición

El órden de las palabras clave


La proximidad de las palabras clave es un factor positivo a la hora de calcular la relevancia
de las páginas de resultados de búsqueda. Contra más cerca aparecen en el documento las
palabras buscadas y en el orden correcto, mejor situada aparecerá nuestra página.

En este sentido, será importante usar las combinaciones más buscadas en los elementos
óptimos y aprovechar los elementos de nuestro sitio que no son tan óptimos cómo los
segundos, terceros... párrafos para usar combinaciones diferentes, usar faltas ortográficas...

Tabla de contenido
 · El primer párrafo
 · Los demás párrafos

El primer párrafo
Sera el contenido de nuestra pagina y deberá contener palabras clave pero con moderación,
las situaremos próximas entre ellas y en el orden usado en las búsquedas de nuestros
usuarios.

Nota:
Puede convenir poner un buscador en tu sitio web y analizar las búsquedas de tus usuarios a
la hora de decidir el órden de las palabras clave

Los demás párrafos


Probablemente, la mejor fuente de texto rico en combinaciones reales de palabras clave y
faltas ortográficas es el usuario de nuestro sitio. Sus textos contendrán las mismas
combinaciones de palabras y faltas de ortografía usados en sus búsquedas.

Aprovecharemos el texto del usuario para crear páginas repletas de contenido rico en
variaciones de palabras clave, es inteligente usar un sistema de comentarios en todas
aquellas páginas que tengan entre 1 de 5 párrafos de contenido

 Frescura del contenido


Una vez el buscador tiene indexado un documento, accederá al mismo otras veces para
comprobar si ha sido modificado. De esta manera, además de tener los contenidos al día, el
buscador puede determinar la fecha en la que se realizó el último cambio en el contenido.

Contra menos tiempo hace de la última modificación detectada en un documento, mejor la


posición que ocupa en las páginas de resultados.
Tabla de contenido
 · Cambios en el texto
 · Cambios en el diseño

Cambios en el texto
Para asegurar que el buscador detecta cambios en el texto de un documento, debemos hacer
cambios importantes en el texto del documento ( cambios en el primer párrafo, cambios en
el título, adición de un párrafo... )

Para una buena posición haremos cambios en el texto de los documentos antiguos a
menudo ( por ejemplo mensualmente ). Pero siempre tendremos cuidado con modificar
demasiado el texto o podemos perder ránking para palabras importantes.

Cambios en el diseño
Los cambios en el diseño general de un sitio web actualizan las fechas de modificación de
todos sus documentos, por norma general un cambio en el diseño se traduce en un aumento
de visitas desde los buscadores.

Por estas razones haremos pequeños cambios en el diseño frecuentemente ( cada dos o tres
meses ).

En algunos buscadores, entre ellos Google, también es recomendable hacer un cambio total
en el diseño cada 1 o 2 años
 

Densidad de palabras clave


La densidad de las palabras clave o peso de las palabras clave es el número de veces que
una palabra clave aparece en una página dividida entre el número de palabras de la
página.

Se calcula que el valor óptimo de densidad es de un 6-20%, no debería ser ningún problema
estar por debajo de estos valores si sitúas tus palabras clave en los sitios oportunos. Pero ten
mucho cuidado a la hora de superar ese 20%, Googe podría penalizar el documento actual e
incluso todo tu sitio si exageras con el Spam.

Nota:
Actualmente la densidad de las palabras clave no es un factor importante para los
buscadores y abusar de ella puede producir serias penalizaciones

Utiliza una alta densidad ( 15%, 20% ) para aquellas palabras clave que has considerado
cómo secundarias y que no vas a situar en los elementos óptimos cómo title, h1, h2, primer
párrafo... y reduce la densidad de las palabras que aparezcan en el título, la URL y el
dominio del documento para evitar ser penalizado.
 

La calidad del contenido


Los algoritmos de búsqueda utilizan diferentes parámetros automáticos para determinar la
calidad del contenido de un documento. Si determinan que el contenido del documento es
de calidad, aparecerá en una posición superior.

Asimismo, es importante mantener una buena media de calidad en los documentos de


nuestra página web para evitar que sean penalizadas.

Tabla de contenido
 · Análisis temático
 · Análisis visual y de contenido
 · Análisis estructural

Análisis temático
Uno de los parámetros utilizados para determinar la calidad del documento es el análisis de
la relación entre las palabras clave utilizadas. Tarea que se realiza intentando determinar el
"tema" de las palabras encontradas.

En este sentido es importante utilizar palabras clave sobre el mismo tema en el mismo
documento.

Análisis visual y de contenido


Utilizando la cantidad de enlaces, párrafos... pero también el aspecto de los mismos
( análisis de estilos CSS... ) se intenta determinar si se trata de un artículo, una página de
navegación...
Se premian los documentos con gran cantidad de contenido ( frecuentemente noticias,
blogs, documentación... ). Y aquellos en los que el contenido ocupa mayor espacio en el
documento y en una mejor posición.

Análisis estructural
Puesto que la finalidad del buscador es mostrar los resultados más útiles para el usuario, es
importante ofrecer un contenido bien estructurado para facilitar su comprensión.

Es recomendable utilizar encabezados H1, H2... para organizar visualmente el contenido


del documento.

Nota:
Para saber que información ve un robot, puedes usar nuestra herramienta para ver una
web tal cómo la ve el robot de un buscador
 

Los enlaces entrantes


 
Los enlaces entrantes son un elemento vital a la hora de calcular la relevancia de un
determinado documento. Cualquier manual de SEO nos recomendará tener la mayor
cantidad y calidad de enlaces hacia nuestros documentos.

Tabla de contenido
 · ¿Que es un enlace de calidad?
 · Conseguir enlaces
 · ¿Como se si tengo enlaces?

¿Qué es un enlace de calidad?


No cualquier enlace cuenta, es posible incluso que un enlace sea perjudicial.

Entenderemos por enlace de calidad, aquel que proviene de una página:


- de calidad
- que no realiza trampas para posicionamiento
- que trata sobre el mismo tema de nuestra web
- que tiene nuestras palabrs clave en el texto del enlace
Además los buscadores tienen en cuenta la antigüedad del enlace.

Conseguir enlaces
Normalmente conseguiremos de forma natural enlaces de calidad, como los que
queremos, ofreciendo contenido de calidad que apetezca enlazar. Los buscadores buscan
contenido de calidad, y todos lo hacen buscando estos "enlaces naturales" que genera, y
cada vez mas ( blogs, meneame... ), el buen contenido.

Si no es el caso, es posible comprar enlaces o buscar otras maneras de conseguirlos


( creando páginas falsas... ) pero el efecto siempre será mucho menor. Siempre es preferible
analizar porque no se están consiguiendo enlaces de forma natural, y las causas suelen
ser:
1- No estamos ofreciendo contenido de calidad
Si no tenemos un contenido que a la gente le interese y lo busque en Internet nunca
conseguiremos enlaces.

2- No es sencillo enlazar a nuestro contenido


Tenemos que facilitar que nuestros visitantes nos enlacen, es bueno proporcionar URL
cortas, una opción de "enlazar a esta página..."

3- Nadie lee nuestro contenido


Si no hay visitas no habrá nadie que nos enlace, habrá que revisar los otros factores de
ordenamiento para ver porque no llegan visitas desde los buscadores.

Inicialmente recibiremos pocas visitas y de búsquedas con muchas palabras clave o con
palabras extrañas, faltas de ortografía... ( búsquedas con poco competencia ). Si estas visitas
se convierten en enlaces, las visitas se multiplicarán ya que mejoraremos la posición en
búsquedas con más competencia

¿Cómo se si tengo enlaces?


Para consultar el número de enlaces de una web, podemos usar un plugin SEO para el
navegador cómo SearchStatus para Firefox.

Si no queremos usar un plugin, podemos hacer una búsqueda como ésta en el buscador:
 
000  site:www.example.com
Maximizar  Seleccionar 
 
No recomiendo usar Google para comprobarlo porque muestra resultados muy antiguos
para búsquedas con site
 

La estructura interna de enlaces


Los motores de búsqueda consideran que las páginas menos enlazadas internamente en un
sitio web determinado son menos importantes que otras que están enlazadas en todos los
documentos del mismo sitio. Enlazando desde la portada y desde páginas relacionadas a un
documento concreto puede mejorar significativamente la posición de este documento en las
páginas de resultados del buscador.

Cómo se calcula la estructura de enlaces


Por decirlo de alguna manera, el buscador hace una estructura jerárquica de las páginas de
un sitio web en función de la cantidad de enlaces que hay que seguir para llegar a un
documento concreto. De esta manera un documento al que se accede desde el menú
principal se situará en mejor posición que un documento al que accedemos sólo desde una
determinada página.

También se tiene en cuenta la posición de los enlaces dentro de los documentos. Si


situamos un enlace en todos los H1 de nuestros documentos, el buscador entenderá que ese
documento es la página principal de nuestro sitio.

Un error frecuente en este sentido es utilizar una paginación tipo "anterior - siguiente", esto
produce que para llegar a la página 5 hay que pasar por 4 siguientes. Es recomendable usar
un sistema tipo " pagina 1, pagina 2..."
 

 blexter 06/06/08 Comentario 825


al hacer el sistemaps acuerdencen que el formato txt ente cifrado en
UTF-8, es de suma importancia!

Uso de contenido original


El contenido original es un factor clave para obtener buena posición en las páginas de
resultados de buscadores.

Para evitar que el usuario encuentre el mismo contenido una y otra vez en la misma
búsqueda, los buscadores utilizan diversas técnicas para detectar contenido duplicado entre
los documentos candidatos a ser mostrados al usuario. Una vez detectados discriminan,
enviando a peores posiciones, todos los candidatos salvo el que consideran original.

Para determinar el contenido original de las copias, los buscadores pueden utilizar otros
parámetros a parte de la fecha que accede al documento, por ejemplo el ránking de la
página web.

Tabla de contenido
 · ¿Puede mi contenido original ser considerado duplicado?
 · ¿Que pasa si publico el mismo contenido en URL diferentes?

¿Puede mi contenido original ser considerado


duplicado?
Dado que el buscador puede tardar en encontrar un documento y utiliza tambiénm otros
parámetros como el PageRank, en determinados casos el contenido duplicado puede
aparecer por encima del original, sobretodo si las fechas de publicación son cercanas y el
dominio de la página duplicada tiene un Page Rank ( o equivalente ) mayor.

Un ejemplo frecuente de esto es encontrar una notícia en Digg, Menémame... mejor


posicionada que la original. En este caso, si la noticia es corta y su contenido integro está
duplicado, el original puede desaparecer de las primeras páginas.

¿Qué pasa si publico el mismo contenido en URL


diferentes?
El problema de publicar un contenido con URL's diferentes ( con parametros, diferentes
dominios ) es que simplemente se mostrará uno de ellos. Pero en cambio el PR de los
enlaces del documento se repartirá entre las diferentes URL en función de la que tenga más
enlaces.

Por esta razón es preferente publicar el contenido con una URL única y que todos los
enlaces apunten a la misma
 
La antigüedad del sitio
La antigüedad del dominio, o por decirlo de una manera el tiempo que ha pasado desde que
se registró un dominio, es uno de los factores que se discute si tiene o no relevancia a la
hora de determinar la posición de un enlace en la página de resultados de los principales
buscadores. Si realizamos las redirecciones oportunas, podemos mover una página a un
dominio recién registrado y no perder visitas desde los buscadores.

Con las redirecciones, el buscador es capaz de mantener el PageRank ( o análogo ) y la


fecha de creación del contenido en la nueva URL. Es la fecha de creación del contenido
( primera indexación de la página ) la que si ayudará a calcular la posición.

Tabla de contenido
 · Contenido fresco
 · Contenido antiguo

Contenido fresco
Si nuestro dominio tiene un PageRank suficiente, el contenido recién creado en nuestro
sitio aparecerá en los primeros resultados de Google enseguida. De esta manera Google
obtiene por un lado resultados más actuales y por otro, puede evaluar la respuesta de los
usuarios ante el nuevo contenido ( si los usuarios lo leen, si al leerlo terminan la búsqueda,
si recibe enlaces entrantes ... ).

Las primeras horas después de la creación de un contenido son cruciales para mantener su
buena posición inicial, debemos asegurarnos que:
1 Recibimos enlaces entrantes
Recibir buenos enlaces hacia nuestro sitio siempre debe ser una prioridad, pero en especial
con el contenido de nueva creación.

2 El contenido gusta a los visitantes


Los buscadores pueden utilizar muchos parámetros para determinar si el contenido es del
agrado de sus usuarios, si lo leen, el tiempo que tardan ( y si lo hacen ) en leer el siguiente
resultado de búsqueda, los votos en Google Reader...

Los primeros días es recomendable mantener títulos atractivos para los visitantes, el
contenido fácilmente visible, páginas limpias de enlace y palabras clave... posteriormente
podremos añadir enlaces y palabras clave

Contenido antiguo
Una vez posicionada, la página tenderá a mantener su posición en los resultados de los
buscadores, mejorando lentamente a medida que vaya recibiendo enlaces entrantes y votos
de usuarios. Es difícil arrebatar la primera posición a una página posicionada hace tiempo,
pero también es sencillo mantener una primera posición que venimos ocupando

La edad de los enlaces


 
La base del ordenamiento que realiza Google son los enlaces entrantes, pero no sólo se
tiene en cuenta la calidad de estos enlaces ( desde página de calidad, sin trampas, misma
temática, palabras clave... ) sino que también tiene en cuenta la distribución de los
enlaces entrantes en el tiempo.

No sólo no es positivo tener muchos enlaces de golpe en un contenido nuevo, sino que,
en una web recién creada, puede llegar a ser contraproducente y hacernos entrar en sandox.

Los enlaces de otras páginas a nuestro contenido tienen que empezar a aparecer poco
después de la creación de un nuevo contenido e ir aumentando en función del tiempo.
Tal y cómo pasa de manera natural con el buen contenido que se difunde por blogs,
twitter...

El número de nuevos enlaces recibidos en un día, debe tener un crecimiento exponencial


los primeros días, estabilizarse unos días y reducirse hasta dejar de recibir nuevos enlaces.
En la gráfica se muestra un ejemplo de los enlaces externos recibidos por un contenido los
30 días después de su creación.
Además, estos enlaces deben durar, no sirve que las páginas nos enlacen y retiren el enlace
al cabo de una semana.

También podría gustarte