¿¿¿Pero eso del SEO que es??? Cuando hablamos de SEO nos referimos a «Search Engine Optimization» o, como se diría en castellano, Optimización de motores de búsqueda o Posicionamiento en buscadores.
El SEO es un conjunto de técnicas para que un Site o página Web aparezca en primeras posiciones entre los resultados de un buscador para unos determinados términos. Las técnicas SEO pueden utilizarse dentro del site (en el contenido, en el código, en la accesibilidad…) o fuera del site (enlaces de tu sitio en otros sitios web, recomendaciones de tu contenido en las redes sociales…).
Explicado de forma más sencilla:
- Tengo un sitio web donde vendo zapatos. 😀
- La gente busca zapatos en cualquier buscador, estas personas pueden llegar a ser posibles clientes para mi.
- Quiero que encuentren mi sitio web cuando busque zapatos, zapatos de tacón y botas mosqueteras.
- Tengo que realizar mejoras y aplicar técnicas en mi sitio web para que eso suceda (SEO).
- Cuando un usuario busque zapatos web aparecerá en la primera página del buscador. Ampliando el tráfico que llega a mi sitio y probablemente mis ventas.
Una vez explicado de forma sencillita voy a intentar desarrollar una especie de vocabulario o palabras relacionadas con esta técnica y conceptos clave en SEO
Ajax: Acrónimo de Asynchronous JavaScript and XML o JavaScript Asíncrono y XML AJAX es un protocolo de programación que permite actualizar determinadas secciones de contenido de una página web, sin necesidad de recargar la página.
Algoritmo: Un buscador posee unas reglas para decidir dónde ubica una página cuando un usuario busca una palabra o frase en concreto. Es decir, cómo el buscador posiciona los sitios web, el sistema que utiliza para mostrar los resultados de sus búsquedas. Ningún motor de búsqueda revela cómo funciona su algoritmo para protegerse de competidores y de posibles ataques de spam.
Análisis de cabeceras: El análisis de las cabeceras http/https del servidor permite descubrir redireccionamientos sospechosos susceptibles de ser identificados como cloaking (mostrar al buscador un contenido, sobreoptimizado, distinto del que se muestra a los usuarios) por los buscadores. También permiten detectar otros problemas tales como controles de la caché, programación inadecuada de las páginas de error, etc.
Anchor Text: Es el texto usado para hacer click en el enlace. Si en el anchor text hay una palabra relativa a la página enlazada, Google interpretará mejor de lo que habla esa página. Sera, pues, interesante que los enlaces que se consigan contengan palabras claves, en el anchor text, relacionadas con los términos para los que se quieres posicionar.Sin embargo, no te pases al lado oscuro. No conviene abusar ya que una sobreoptimización de los anchor text puede ser interpretada por los buscadores como un intento de modificar el Page Rank de forma artificial (especialmente desde Penguin) lo que podría desembocar incluso en una penalización. Por eso es conveniente que haya una diversidad de anchor texts.
API: Acrónimo de Application Programming Interface o Interfaz para la Programación de Aplicaciones. Es un programa que los anunciantes emplean para gestionar sus campañas de enlaces patrocinados como alternativa a las interfaces de los buscadores.
Atributo Alt: Es el texto alternativo que se le da a un elemento no textual, como puede ser una imagen. Esto permite que el buscador identifique el contenido de la imagen y pueda indexarlo, es decir, posicionarlo para esos términos. Los buscadores no pueden leer más que texto. (Que no se nos olvide hacer posicionamiento dentro de las imagenes)
Autor Tag: Es la información del autor que podemos incluir en el código de nuestra páginas para que aparezca en los resultados de búsqueda. Google está probando esta opción para ayudar a los usuarios a encontrar contenido de calidad.
BackLinks: Enlaces entrantes. Los links de otras páginas que apuntan a nuestra página web son backlinks. En los buscadores se suelen mostrar por el comando link:www.dominio.com; hay que señalar que, con este comando, Google no muestra todos los enlaces hacia nuestra página web; MSN es el más rápido actualizándolo (diariamente); y Yahoo! es el más completo mostrando todos los enlaces que encuentra.
Baneado: Banear un sitio web significa que ese sitio ha utilizado alguna técnica no permitida por las políticas de calidad de los buscadores. Banear implica que el buscador elimina de su índice todo o parte del contenido de un Sitio Web, impidiendo que aparezca en los resultados de las búsquedas de los usuarios.
Black Hat SEO: Profesional SEO que utiliza prácticas poco éticas o que infringe las reglas de un buscador para conseguir que un sitio web aparezca en mejores posiciones.
Buscadores: Los buscadores son sistemas informáticos que navegan por la red e indexan contenidos para que cuando los usuarios realicen búsquedas con palabras clave concretas, el buscador ofrezca un listado de sitios web relacionadas con esas palabras clave.
Cloaking (Encubrimiento): Devolve resultados diferentes según la IP que acceda a la página, devolveríamos páginas optimizadas a las IPs de los spiders de los buscadores, y páginas diferentes a los usuarios que entren en nuestra web. Evidentemente, las páginas que devolveríamos a los buscadores, estarían optimizadas hasta tal punto que serían mal vistas por el usuario. Hay diferentes técnicas, mejores y peores, no me interesaré por ellas en ningún artículo por dos motivos.
1.- Son técnicas no consideradas éticas en el mundo SEO, aunque sí validas, y funcionan.
2.- Conllevan el riesgo de que los buscadores que lo descubran decidan banear la web que usa estos métodos.
Contenido duplicado: Se trata de contenido duplicado, los textos que son idénticos o muy similares, dentro de un mismo dominio o en varios. Es una práctica penalizada por los buscadores, ya que prefieren indexar contenido único y no duplicado.
Crosslinking: Cuando hay enlaces recíprocos entre varias páginas, los buscadores intentan reducir el valor de estos enlaces.
Datacenter: Algunos de los servidores que tiene google y que se utilizan para chequear los diferentes resultados cuando este servidor varía sus resultados. Algunos son: www-ex.google.com,www-in.google.com…
Densidad de palabras clave: Número de veces que aparece una palabra clave o un texto en una página web. La densidad de palabras clave es uno de los factores que los buscadores tienen en cuenta para ordenar los resultados de una búsqueda. El exceso de palabras clave puede penalizar la página.
Directorio Web: El directorio web contiene listas de enlaces organizadas temáticamente. Sirven para que Webmasters, diseñadores o creadores web puedan listar su sitio web.
Dominios Espejo: Los dominios espejo son dominios aparcados sobre la misma IP que el dominio principal o canónico. Al presentar exactamente el mismo contenido que éste, son detectados como contenido duplicado y uno de los dos se posicionará bien mientras que el otro quedará relegado a los resultados suplementarios.
Doorways: Aquellas páginas que se hacen única y exclusivamente con la finalidad de optimizarlas para una serie de búsquedas. El buscador se la devuelve al usuario, que al entrar por la doorway, generalmente, es redireccionado a nuestra página de entrada principal, o bien, se pone un único enlace que lo conduzca hasta allí. Es una técnica que da buenos resultados, pero no es un buen recurso utilizarla como sistema, no se debe abusar de ella, ya que conlleva el riesgo, de ser baneado del buscador que lo detecte.
DMOZ: También conocido por ODP (Open Directory Project – www.dmoz.org), es el directorio más importante hasta el día de hoy, cuenta con casi 60.000 editores voluntarios. Aunque Yahoo es mucho más usado a la hora de realizar búsquedas categorizadas por directorios, dmoz tiene algunos puntos a favor, que lo convierten, actualmente, en el número 1 de las páginas ordenadas por categorías. Para saber más, puedes leer el artículo
Enlaces de salida: Enlaces incluidos en un sitio web que apuntan a otras páginas del mismo sitio o de otros.
Enlaces no rastreables: Las arañas de los buscadores siguen perfectamente los enlaces HTML programados según la sintaxis habitual <a href=”URL destino del enlace”>Texto del enlace</a>. Por contra, no pueden seguir los enlaces desde una animación Flash, enlaces programados con JavaScript, enlaces atrapados en un marco (frame)… Los enlaces no rastreables actúan como un muro para la navegación de las arañas de los buscadores e impiden que lleguen a rastrear todos los contenidos de un portal.
Extensiones y plugins de navegador: Las extensiones agilizan el trabajo de análisis SEO en tu sitio web, ya que no hay que abrir ningún programa complementario, en la misma navegación puedes activar sus funcionalidades. Por ejemplo, SEOmoz Toolbar, SeoBook.com Toolbar, Web Developer Toolbar, Firebug…
Gateways: No deja de ser un mapa web, donde se ayuda al buscador, a seguir todos los enlaces que deseamos nos indexe en su base de datos. Pero, los Gateways en si, son algo más, una forma óptima de enlazar todas esas páginas de la web, desde ese mapa, con enlace de texto adecuado, para que sea bien valorado por el buscador.
Googlebot: Robot de búsqueda que rastrea e indexa los sitios web para construir una base de datos para el motor de búsqueda de Google.
Google Dance: El baile del google, hasta mediados de 2003 se entendía por dance un período de unos 4 días en los que google actualizaba sus índices y los resultados de las búsquedas eran variables, ahora la google dance ha cambiado y parece que se realiza de forma continua, con pequeñas oscilaciones diarias, y con días de grandes actualizaciones, al menos 1 vez al mes, en los que las posiciones cambian notablemente. Entenderemos por dance o baile esos períodos de actualizaciones que devuelven diferentes resultados en los distintos datacenters.Indexar
Los motores de búsqueda, como Google o Yahoo!, indexan o exploran Internet para crear un índice del contenido en internet y de los sitios web para poder mostrar resultados a las búsquedas.
Indexidad de un sitio web: La indexabilidad de un sitio Web es la facilidad que tienen los buscadores de encontrarlo y rastrear la totalidad de su contenido. En general, consideramos que un sitio Web es indexable (o que tiene una buena indexabilidad) cuando los robots, crawlers o arañas de los buscadores pueden:
- Encontrarlos, generalmente a partir de un enlace hacia los mismos publicado en un sitio Web ya indexado; tras cumplimentar el proceso de darlo de alta desde un formulario al efecto en los propios buscadores o bien por encontrar la URL en un archivo sitemap.
- Rastrear la totalidad de su contenido: no sólo el obviamente indexable como el texto, sino también las imágenes, vídeos, animaciones, documentos enlazados, etc.
- Clasificarlos en categorías de búsquedapara las cuales ese sitio Web o página en concreto sería un resultado pertinente y, preferiblemente, con un nivel de relevancia mayor que otras páginas Web que compiten para posicionarse en la misma categorías de búsquedas.
Si se cumplen estas condiciones, los buscadores añadirán el sitio Web a su índice y diremos entonces que la página ha sido indexada. Junto a la usabilidad, consideramos que la indexabilidad es uno de los aspectos críticos de los sitios Web de alto rendimiento pues antes que podamos posicionar una página Web, es condición necesaria que la misma haya sido rastreada e indexada por los buscadores.
Intercambio de enlaces: Es una técnica utilizada para generar más tráfico hacia un sitio web y mejorar su posicionamiento. Lo ideal es conseguir enlazar tu sitio web a sitios con temática relacionada.
Link building: Es una técnica utilizada para aumentar la relevancia de tu sitio web y mejorar la posición en el ranling de resultados. Consiste en que otras páginas web enlacen a la página que queramos.
Metabuscador: Es un buscador que utiliza una base de datos de otros buscadores
Metadatos: Conjunto de etiquetas, autor, título, fecha, palabras clave, descripción… Estas etiquetas sirven para que los buscadores incluyan a un sitio web estos elementos en su indexación.
Meta description: Es un metatag que aparece debajo del título de la página en los resultados del buscador. Es la descripción breve del sitio web.
Meta keywords: Listado de las palabras clave más importantes que definen la página o el contenido de la página web.
Meta Robots/Meta Googlebot: Estas metas dan instrucciones a los buscadores, o sólo a Google en el caso de Googlebot, para que no indexen la página ni sigan los enlaces de la misma hacia otras páginas, impidiendo su indexación. Aunque parece obvio que estas metas no deben existir si lo que queremos es que los buscadores indexen la página, en no pocas ocasiones se incluye alguna de estas metas mientras un nuevo portal está en pruebas, y luego se olvida eliminarla una vez se publica, lo cual evita su indexación
Nofollow: El atributo nofollow en los enlaces (sintaxis <a href=”URL de destino” rel=”nofollow”>Anchor Text</a>) Con esto conseguimos que la página que recibe el enlace no se beneficia de la popularidad ni credibilidad de la página origen del enlace.
El objetivo del atributo nofollow es impedir que la publicación de enlaces comprados en sitios Web con un alto PageRank se utilice para falsear el cálculo de relevancia de los sitios Web destino del enlace, obteniendo una ventaja en su posicionamiento en las páginas de resultados.
Google suele penalizar los sitios Web que publican enlaces comprados sin incluir el atributo nofollow bajando el valor visible de su PageRank así como descontando la popularidad procedente de estos enlaces en el cálculo de la relevancia de los sitios Web de destino.
Número de enlaces internos/externos: Popularidad de una determinada página se reparte entre todos los enlaces salientes de la página que no cuentan con el atributo nofollow. Si el número de enlaces salientes que apuntan a otros dominios es elevado, entonces la página está “regalando” más zumo de popularidad a esos dominios del que transfiere hacia sus propias páginas internas.
Número de páginas reales del sitio: Conocer el número de páginas reales del sitio web nos permite compararlo con el número de páginas indexadas. La relación entre estos dos números es la saturación y el objetivo es que sea del 100%. Una baja saturación es el síntoma de algún problema de indexabilidad. En los portales estáticos, suele ser sencillo conocer el número de páginas que componen el portal. En los portales dinámicos, en cambio, cononer el número total de páginas en un momento dado puede ser mucho más complicado.
PageRank: El PageRank es un número que representa la relevancia que tiene una página web en Internet y para el buscador Google.
Palabra clave (keyword, query): Término que escriben los usuarios en el buscador para encontrar información relacionada con el mismo. Los sitios web que contengan esa palabra clave y que hayan sido optimizados para los motores de búsqueda, aparecerán en mejores posiciones en los resultados de búsqueda.
Popularidad Web: Es un valor numérico, muy variable, en función de los backlinks que tenga una página en un número determinado de buscadores. Se puede medir con algunos programas y en algunas páginas web, pero hay que tener en cuenta que depende mucho de los buscadores y el número de estos que se usen en la medida de este valor. Es una forma aproximada de saber si una página crece en popularidad a lo largo del tiempo.
Posicionamiento del enlace: Dentro de las diferentes posiciones que puede ocupar un enlace (cabecera, cuerpo del texto, footer…) es siempre preferible que este ocupe un lugar en el cuerpo del texto o en la cabecera.
Rastreador (araña, crawler, spider): Robot que navega por internet de forma automática siguiendo los enlaces. El rastreador almacena información de las páginas que visita para nutrir el motor de búsqueda.
Robots.txt: Fichero de texto que transmite al buscador qué directorios, carpetas, archivos o páginas no deben de ser indexados.
SEP: Search Engine Positioning. Posicionamiento para buscadores; simplemente, es otra forma de referirse a SEO.
SEO Offpage: Es la parte del trabajo SEO que se centra en factores externos a la página web en la que trabajamos.
Una de las tareas más importantes del SEO offsite es el link building, generar enlaces que apunten a tu página en webs externos a ella, con lo que Google le dará una mayor relevancia.
SEO Onpage: o SEO on-site es el análisis y la optimización de una página web enfocado desde la perspectiva tanto del usuario, como de los motores de búsqueda. (Estos dos términos “SEO Offpage y SEO Onpage le dedicare un post en exclusiva :D)
Simuladores de araña: Los simuladores de araña ayudan a “ver” el contenido de una web tal como la “ven” las arañas de los buscadores. Esto permite detectar posibles problemas en el cálculo de la relevancia o en la navegabilidad para la araña.
Site Speed: Herramienta para la monitorización del rendimiento de un sitio web, basada en el análisis de velocidad del mismo, que influye en el posicionamiento web.
Schema.org: Es una colaboración entre Google, Microsoft y Yahoo! para mejorar tu sitio web adaptándolo a un esquema de datos estructurados para que sea compatible con los principales motores de búsqueda.
Stemming: Consiste en devolver resultados de palabras parecidas o de la misma familia. Por ejemplo, la eliminación en la palabra de sufijos como ‘s’ o terminaciones verbales, lo que permite devolver muchísimos mas resultados. Actualmente no sé de ningún motor de búsqueda que siga utilizando este sistema.
Temas: Los principales buscadores, de alguna forma, clasifican sus páginas por aquello de lo que tratan. Esto es importante a la hora de posicionarnos en los resultados de las palabras claves relacionadas con esos temas. Hay varios factores que pueden influir en que una página sea tomada como de un tema u otro, entre ellos, el más importante, parece el contenido de las propias páginas de la web y la temática de las webs de los links entrantes. Puede, aunque no sea posible asegurarlo, que los enlaces que concedamos a otras páginas también tengan su peso en esta clasificación, influenciando la temática de estas páginas que enlazamos. ¿Por qué es importante el tema de una web? Si tenemos una página de ‘barcos’ y sólo nos enlazan páginas de temáticas muy diferentes, esa web no tendrá su tema bien definido y no logrará tener tan buenos resultados, como una web que partiendo de las mismas condiciones, fuese enlazada sólo por páginas de barcos. Esto es algo importante, y por lo que mucha gente que se dedica al intercambio de links para conseguir una page rank alto, nunca llega a entender el motivo por el que su página, en principio (por el page rank) mucho más valorada por google que otras, nunca llega a salir en las primeras posiciones. Y esto es lógico, porque sino fuese así, una página con un Page Rank 10, saldría en las primeras posiciones, por cualquier búsqueda de palabra (o cadena de palabras) que saliese en sus páginas, luego saldrían páginas con un Page Rank 9, y así sucesivamente.
Texto de la cache: El texto en la caché de Google es el texto que ha sido capaz de rastrear la araña del buscador. Este texto debe contener las palabras clave de la página y ser coherente con la información del título y metas description y keywords.
Texto no rastreable: Los buscadores sólo pueden leer el texto para indexar un determinado contenido. Por eso es importante que no haya texto relevante incrustado en forma de imagen o en películas Flash y que las imágenes tengan un texto alt relevante y descriptivo de su contenido. Esto es especialmente importante en el caso de menús de navegación construidos con texto incrustado en imagen por exigencias de diseño o de imagen corporativa.
Texto oculto: Texto escrito para aumentar la densidad de palabras clave, cuyo color coincide con el fondo de un sitio web o que está escondido en una capa oculta, o detrás de una imagen. Es una técnica penalizada por los buscadores.
Tipos de enlaces: Los enlaces “nofollow” no transmiten autoridad con lo que, a efectos de posicionamiento, no nos interesan. Aunque cuesten más conseguirlos, los únicos enlaces que nos interesan para este propósito son los enlaces “dofollow”.
URLS amigables: El empleo de palabras clave relevantes en el nombre del dominio, subdirectorios, archivos y variables dinámicas presentes en las URL influye positivamente sobre la relevancia de la página proporcionalmente al puesto que ocupa. Es evidente que tener una palabra clave importante como dominio nos da una enorme ventaja de salida para posicionarnos en ese concepto.
URLs únicas: Los buscadores indexan cada contenido con un identificador único que es la dirección URL de la página. Por esto, es esencial que haya una correspondencia unívoca entre un contenido y una única URL. Presentar el mismo contenido bajo dos URL distintas puede ser detectado como contenido duplicado por los buscadores, mientras que si presentamos dos contenidos distintos bajo una misma URL, sólo uno de ellos podrá ser rastreado e indexado por los buscadores.
Webmaster Tools: Las herramientas para webmasters son un servicio que proporcionan los buscadores, como Google, para que los administradores de sitios web puedan comprobar el estado de la indexación de sus sitios y optimizar su visibilidad.
Seguro que se me han pasado más «keywords» ¿Me ayudáis a completarlo?