Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción Al Concepto SEO
Introducción Al Concepto SEO
Tabla de contenido
· ¿Porque mejorar la posición?
· ¿Como mejorar mi posición?
Asimismo, no es igual salir en la primera posición, que salir en la vigésima página, como
tampoco es lo mismo ser el primer resultado buscando la palabra "PHP" ( que recibe miles
de búsquedas al día ) que serlo buscando "PHP bajo la sombra del olivo" ( que con suerte
recibirá alguna búsqueda cuando publique este artículo ) por lo que nos interesará trabajar
para mejorar la posición en unas determinadas búsquedas.
Todos estos factores incrementarán el tráfico de nuestra página web, y es por esto que el
SEO se ha convertido en los últimos tiempos en una de las herramientas más cotizadas por
los webmasters
Nota:
Para saber que información ve un robot, puedes usar nuestra herramienta para ver una
web tal cómo la ve el robot de un buscador
Cualquier buscador de páginas web, necesita disponer de una base de datos con la
información de todas las páginas que pueden llegar a aparecer en la página de resultados
( páginas indexadas ) , esta base de datos, se rellena utilizando precisamente un robot
distribuido entre varios ordenadores.
Tabla de contenido
· ¿Como se rastrea todo Internet?
· ¿Como consigo ser rastreado?
· ¿Puedo evitar ser rastreado?
Además si queremos que los robots nos visiten más a menudo, consiguiendo tener siempre
nuestro contenido actualizado en sus indices, deberemos aumentar el grado de variabilidad
o frescura de nuestras páginas modificandolas a menudo y aportando nuevos contenidos de
forma regular.
El efecto sandbox
El llamado efecto sandbox, introducido por Google en Marzo de 2004 es la consecuencia
de la introducción en los índices de una especie de sala de espera en la que se indexan las
páginas de dominios recientemente registrados, páginas cuyo contenido y enlaces no serán
valorados por el buscador hasta que verifique su calidad.
Tabla de contenido
· ¿Porque crear una sala de espera?
· ¿Como evito este efecto?
Muchas de estas técnicas consisten en crear páginas web con el único fin de atraer visitas o
incluir enlaces a otras páginas para así mejorar su posición en el buscador.
A raíz de esta práctica, en Marzo de 2004 Google incorporó una sala de espera para páginas
nuevas, donde se depositan las aquellas páginas con muchos enlaces entrantes, ya que
Google considera difícil que una página contenga muchos enlaces en sus primeras semanas
de vida.
La duración del efecto sandbox suele variar, y según estudios realizados parece que
aumenta cuanto más enlaces entrantes ( mayor ranking ) tiene una página nueva y varía
según el buscador pero puede llegar a los 6 meses o permanecer para siempre si no tenemos
unos contenidos actualizados.
Por estas razones es importante evitar el lanzamiento de páginas nuevas con muchos
enlaces entrantes ( campañas publicitarias de lanzamiento, spam en foros y comentarios... )
y debemos desestimar la utilización de técnicas fraudulentas como link-farms
Google Sitemaps
Google Sitemaps es una nueva e interesante herramienta de
Google que permite, entre otras opciones, que el webmaster de
una página web le indique al buscador cuales son las páginas de
la web que tiene que indexar.
Un Sitemap proporciona a Google una vista adicional de tu sitio ( como un mapa del sitio
en HTML ) con información de URL, frecuencia de actualización ( frescura )... Este
programa no reemplaza los métodos habituales de rastreo web. Google seguirá buscando e
indexando tus páginas de forma tradicional pero puede ayudar a disponer de mayor
cobertura y de ofrecer un mejor tiempo de indexación a medida que según afirma la
compañía "perfeccionemos nuestros procesos y comprendamos mejor las necesidades de
los webmasters".
Tabla de contenido
· Otras características
· Como usar sitemaps
Otras características
Además, Google Sitemaps ofrece otras herramientas interesantes para conocer los detalles
sobre el proceso de indexación de nuestra página ( errores de rastreo, tipo de archivos
indexados, ... ) así como su posicionamiento ( palabras claves mas buscadas, posición en la
búsqueda ... )
Como usar sitemaps
Este artículo no pretende ser un tutorial sobre el uso de sitemaps ( esto quizás más adelante ) solo
pretende hacer entender su utilidad.
Si quieres aprender a usar sitemaps puedes utilizar el centro de asistencia para webmasters de
Google.
Se sitúan dentro del head del documento HTML / XHTML, entre <head> y </head>,
contienen información útil para el cliente, ya sea un navegador o un robot de un buscador,
nos centraremos en el segundo caso.
Todo meta tag consta de dos atributos, name, que indica que información contiene y
content con la información.
Tabla de contenido
· Indexar, no indexar...
· Palabras clave
· Descripción
Indexar, no indexar...
Con el name' robots', podemos indicar al robot que puede hacer con la página, los valores
posibles para el content son los siguientes, pueden especificarse varios separados por
comas:
index - Indexar esta página y hacerla disponible en los resultados del buscador
noindex - No indexar
follow - Seguir los enlaces de la página
nofollow - No seguir los enlaces
000 <html>
001 <head>
002 <meta name="robots" content="noindex, follow" />
003 </head>
004 <!-- ... -->
005 </html>
Maximizar Seleccionar XML
Palabras clave
Con el name 'keywords' podemos indicar al buscador las palabras clave de nuestro sitio
separadas por coma. Inicialmente los buscadores hacían mucho caso a este meta tag y a
description, pero actualmente este tipo de meta sólo suele usarlo tu competencia para saber
que palabras clave posicionas.
Puede ser un buen sitio para poner palabras clave secundarias o que es muy obvio que estás
posicionando.
000 <html>
001 <head>
002 <meta name="keywords" content="programacion,
003 programacion web, quiero hacer web, aprender a
004 programar webs" />
005 </head>
<!-- ... -->
</html>
Maximizar Seleccionar XML
Descripción
Podemos incluir una descripción de la página con el meta tag description, pero si tenemos
muchas páginas en nuestro sitio esto puede ser un esfuerzo enorme y poco útil, ya que,
como se ha comentado, este meta tag ya casi no es considerado por los buscadores, salvo
algunos casos que ahora explicamos.
Por esta razón, pondremos un description llamativo que promocione nuestro contenido de
hasta 160 caracteres en las páginas sin contenido de texto y en la portada si no aparecemos
en DMOZ:
000 <html>
001 <head>
002 <meta name="description" content="Aprende
003 fácilmente a programar páginas web sin ...." />
004 </head>
005 <!-- ... -->
</html>
Maximizar Seleccionar XML
El archivo robots.txt
El archivo robots.txt, nos permite especificar páginas de
nuestra web a las que no podrán acceder los sistemas
automatizados de rastreo de páginas web ( como por ejemplo
los robots de buscadores ), esto es útil para evitar que
algunas secciones cómo páginas de resultado de búsqueda,
URL's con parámetros no representativos, páginas privadas o
de usuario...
El archivo robots.txt
El archivo robots.txt debe tener como nombre ( que cosas tiene la vida ) robots.txt y debe
estar situado en la raíz de nuestro dominio:
http://www.programacionweb.net/robots.txt
En este archivo indicaremos las páginas que no pueden ser rastreadas utilizando única y
exclusivamente las siguientes directivas sensibles a mayúsculas:
Disallow - Especifica la URL que no puede ser rastreada
User-Agent - Especifica que robot no queremos que acceda a las URL marcadas con
Disallow hasta el siguiente User-Agent o el final del archivo.
Ambas directivas nos permiten usar el carácter asterisco ( * ) como comodín para una o
más letras.
Podemos escribir comentarios de una sola línea con el caracter almohadilla ( # ) al principio
de línea.
Ejemplo
Este es un ejemplo de robots.txt correcto:
robots.txt
000 # Permitir todas las páginas a todos los robots ...
User-agent: *
001 Disallow:
002 # ... pero Googlebot no puede acceder al directorio /an
tigoogle/
003 User-agent: Googlebot
Disallow: /antigoogle/
004 Maximizar Seleccionar CMD
005
006
Podeis ver y chequear el archivo robots.txt de vuestra web, con nuestra herramienta de
analisis y edición de robots.txt
Ordenamiento de los resultados
Para ser más útiles a los usuarios, los buscadores deben ordenar de mayor a menor
calidad/relación con lo buscado los resultados obtenidos para una determinada búsqueda.
Tabla de contenido
· Relevancia
· Factores dentro del sitio
· Factores fuera del sitio
· Factores basados en el tiempo
Relevancia
Para cada resultado obtenido, el buscador aplica hasta 100 criterios para determinar la
relevancia o "calidad" del resultado y después ordena los resultados de mayor a menor
relevancia.
No podemos afirmar cuales son los criterios o factores que utiliza cada buscador ni en que
porcentajes los utiliza, ya que todos guardan bajo llave su algoritmo de ordenación, pero,
estudiando los resultados de las búsquedas en diferentes buscadores, hemos podido detectar
los criterios de relevancia que explicaremos más adelante.
Conociendo a fondo estos factores dominaremos la manera de crear sitios web que
obtengan una mayor relevancia y, por lo tanto, aparezcan en los primeros resultados de los
buscadores y reciban más visitas de páginas de búsqueda.
Normalmente (no siempre es así puesto que existen más factores), encontraremos mas
arriba un documento con las palabras que hemos buscado en su título (H1) que otro que las
tiene en su párrafo (P) numero 23.
A continuación mostramos la lista de posiciones que suelen ser consideradas cómo más
positivas, las ordeno según mis propias experiencias:
dominio
El nombre de dominio de segundo nivel es de mucha importancia en búsquedas con pocas
palabras claves. También tienen importancia los sub-dominios.
title
El título de tu página web es un elemento en el que deben estar presentes tus palabras clave,
concentra esfuerzos en situar palabras clave en los títulos de todas tus páginas.
El título será de unas 9 palabras y se usarán únicamente palabras clave, evita usar el
nombre de tu empresa en el título si no se trata de una palabra clave y si no puedes evitarlo,
ponlo al final.
Algunas recomendaciones:
1 Sitúa el <title> al inicio del <head>
2 Utiliza tu palabra clave principal en todos tus títulos, olvida el nombre de tu empresa
3 Utiliza palabras clave secundarias diferentes para el título cada una de tus páginas de
contenido, optimiza la página entera para esa misma palabra clave secundária
4 No repitas tus palabras clave más de 2 veces en el título
5 No sobrepases las 9 palabras clave
primer párrafo
El primer párrafo tiene mucha importancia a la hora de determinar de que habla un
documento, será importante que contenga palabras clave específicas y enlaces a otros
documentos relacionados.
Deberemos cuidar la longitud de el párrafo que queremos usar cómo primer párrafo, si tiene
menos de 20 palabras será ignorado... y por otra parte si nos excedemos es posible que se
utilicen sólo las 20 primeras.
Es recomendable resaltar las palabras clave en negrita y cursiva en este primer párrafo.
url
La URL del documento es muy importante a la hora de situar palabras clave específicas del
documento. Las situaremos (no mas de 5) en el nombre del archivo y las separaremos por
guiones.
Podremos unir dos palabras clave por underscore (_) y contabilizarán como una sola, pero
solo lo haremos si tenemos la certeza que esas palabras serán buscadas en ese orden ( por
ejemplo general_motors, costa_brava... )
Será también importante usar palabras clave en las URL que apuntan hacia otros
documentos, en este caso también podremos situarlas en la ruta del documento aunque
obtendrán menor peso que en el nombre de archivo.
alt/title
Los atributos alt y title de los elementos gráficos son interpretados por los buscadores y
tienen un peso ligeramente superior al contenido que las envuelve ( ya sea un H1, un primer
párrafo...).
Nota:
Puedes usar nuestra herramienta para obtener la importancia de las palabras clave de
una página web según su posición
En este sentido, será importante usar las combinaciones más buscadas en los elementos
óptimos y aprovechar los elementos de nuestro sitio que no son tan óptimos cómo los
segundos, terceros... párrafos para usar combinaciones diferentes, usar faltas ortográficas...
Tabla de contenido
· El primer párrafo
· Los demás párrafos
El primer párrafo
Sera el contenido de nuestra pagina y deberá contener palabras clave pero con moderación,
las situaremos próximas entre ellas y en el orden usado en las búsquedas de nuestros
usuarios.
Nota:
Puede convenir poner un buscador en tu sitio web y analizar las búsquedas de tus usuarios a
la hora de decidir el órden de las palabras clave
Aprovecharemos el texto del usuario para crear páginas repletas de contenido rico en
variaciones de palabras clave, es inteligente usar un sistema de comentarios en todas
aquellas páginas que tengan entre 1 de 5 párrafos de contenido
Cambios en el texto
Para asegurar que el buscador detecta cambios en el texto de un documento, debemos hacer
cambios importantes en el texto del documento ( cambios en el primer párrafo, cambios en
el título, adición de un párrafo... )
Para una buena posición haremos cambios en el texto de los documentos antiguos a
menudo ( por ejemplo mensualmente ). Pero siempre tendremos cuidado con modificar
demasiado el texto o podemos perder ránking para palabras importantes.
Cambios en el diseño
Los cambios en el diseño general de un sitio web actualizan las fechas de modificación de
todos sus documentos, por norma general un cambio en el diseño se traduce en un aumento
de visitas desde los buscadores.
Por estas razones haremos pequeños cambios en el diseño frecuentemente ( cada dos o tres
meses ).
En algunos buscadores, entre ellos Google, también es recomendable hacer un cambio total
en el diseño cada 1 o 2 años
Se calcula que el valor óptimo de densidad es de un 6-20%, no debería ser ningún problema
estar por debajo de estos valores si sitúas tus palabras clave en los sitios oportunos. Pero ten
mucho cuidado a la hora de superar ese 20%, Googe podría penalizar el documento actual e
incluso todo tu sitio si exageras con el Spam.
Nota:
Actualmente la densidad de las palabras clave no es un factor importante para los
buscadores y abusar de ella puede producir serias penalizaciones
Utiliza una alta densidad ( 15%, 20% ) para aquellas palabras clave que has considerado
cómo secundarias y que no vas a situar en los elementos óptimos cómo title, h1, h2, primer
párrafo... y reduce la densidad de las palabras que aparezcan en el título, la URL y el
dominio del documento para evitar ser penalizado.
Tabla de contenido
· Análisis temático
· Análisis visual y de contenido
· Análisis estructural
Análisis temático
Uno de los parámetros utilizados para determinar la calidad del documento es el análisis de
la relación entre las palabras clave utilizadas. Tarea que se realiza intentando determinar el
"tema" de las palabras encontradas.
En este sentido es importante utilizar palabras clave sobre el mismo tema en el mismo
documento.
Análisis estructural
Puesto que la finalidad del buscador es mostrar los resultados más útiles para el usuario, es
importante ofrecer un contenido bien estructurado para facilitar su comprensión.
Nota:
Para saber que información ve un robot, puedes usar nuestra herramienta para ver una
web tal cómo la ve el robot de un buscador
Tabla de contenido
· ¿Que es un enlace de calidad?
· Conseguir enlaces
· ¿Como se si tengo enlaces?
Conseguir enlaces
Normalmente conseguiremos de forma natural enlaces de calidad, como los que
queremos, ofreciendo contenido de calidad que apetezca enlazar. Los buscadores buscan
contenido de calidad, y todos lo hacen buscando estos "enlaces naturales" que genera, y
cada vez mas ( blogs, meneame... ), el buen contenido.
Inicialmente recibiremos pocas visitas y de búsquedas con muchas palabras clave o con
palabras extrañas, faltas de ortografía... ( búsquedas con poco competencia ). Si estas visitas
se convierten en enlaces, las visitas se multiplicarán ya que mejoraremos la posición en
búsquedas con más competencia
Si no queremos usar un plugin, podemos hacer una búsqueda como ésta en el buscador:
000 site:www.example.com
Maximizar Seleccionar
No recomiendo usar Google para comprobarlo porque muestra resultados muy antiguos
para búsquedas con site
Un error frecuente en este sentido es utilizar una paginación tipo "anterior - siguiente", esto
produce que para llegar a la página 5 hay que pasar por 4 siguientes. Es recomendable usar
un sistema tipo " pagina 1, pagina 2..."
Para evitar que el usuario encuentre el mismo contenido una y otra vez en la misma
búsqueda, los buscadores utilizan diversas técnicas para detectar contenido duplicado entre
los documentos candidatos a ser mostrados al usuario. Una vez detectados discriminan,
enviando a peores posiciones, todos los candidatos salvo el que consideran original.
Para determinar el contenido original de las copias, los buscadores pueden utilizar otros
parámetros a parte de la fecha que accede al documento, por ejemplo el ránking de la
página web.
Tabla de contenido
· ¿Puede mi contenido original ser considerado duplicado?
· ¿Que pasa si publico el mismo contenido en URL diferentes?
Por esta razón es preferente publicar el contenido con una URL única y que todos los
enlaces apunten a la misma
La antigüedad del sitio
La antigüedad del dominio, o por decirlo de una manera el tiempo que ha pasado desde que
se registró un dominio, es uno de los factores que se discute si tiene o no relevancia a la
hora de determinar la posición de un enlace en la página de resultados de los principales
buscadores. Si realizamos las redirecciones oportunas, podemos mover una página a un
dominio recién registrado y no perder visitas desde los buscadores.
Tabla de contenido
· Contenido fresco
· Contenido antiguo
Contenido fresco
Si nuestro dominio tiene un PageRank suficiente, el contenido recién creado en nuestro
sitio aparecerá en los primeros resultados de Google enseguida. De esta manera Google
obtiene por un lado resultados más actuales y por otro, puede evaluar la respuesta de los
usuarios ante el nuevo contenido ( si los usuarios lo leen, si al leerlo terminan la búsqueda,
si recibe enlaces entrantes ... ).
Las primeras horas después de la creación de un contenido son cruciales para mantener su
buena posición inicial, debemos asegurarnos que:
1 Recibimos enlaces entrantes
Recibir buenos enlaces hacia nuestro sitio siempre debe ser una prioridad, pero en especial
con el contenido de nueva creación.
Los primeros días es recomendable mantener títulos atractivos para los visitantes, el
contenido fácilmente visible, páginas limpias de enlace y palabras clave... posteriormente
podremos añadir enlaces y palabras clave
Contenido antiguo
Una vez posicionada, la página tenderá a mantener su posición en los resultados de los
buscadores, mejorando lentamente a medida que vaya recibiendo enlaces entrantes y votos
de usuarios. Es difícil arrebatar la primera posición a una página posicionada hace tiempo,
pero también es sencillo mantener una primera posición que venimos ocupando
No sólo no es positivo tener muchos enlaces de golpe en un contenido nuevo, sino que,
en una web recién creada, puede llegar a ser contraproducente y hacernos entrar en sandox.
Los enlaces de otras páginas a nuestro contenido tienen que empezar a aparecer poco
después de la creación de un nuevo contenido e ir aumentando en función del tiempo.
Tal y cómo pasa de manera natural con el buen contenido que se difunde por blogs,
twitter...