Espacio de aprendizaje sobre Comunicación Digital

Técnicas SEO generales

Las técnicas generales SEO recogen un conjunto de protocolos de carácter global que nos ilustra sobre la forma de comportarse los buscadores y, por tanto, debemos considerarlas de manera integral para mejorar el posicionamiento de cualquier sitio web.

  • Optimización de enlaces

    Como ya hemos visto, los buscadores privilegian los enlaces. No en vano, es ese el modo por el que son capaces de recorrer la topografía de la Web. Son sus vías de reconocimiento y los canales a través de los cuáles mapean el tamaño y dimensiones de la Red.

    Por ello, no es de extrañar que el valor de una página esté directamente relacionado con el número de enlaces que esta posee. Esto, que es conocido por los interesados y profesionales del posicionamiento, no es, sin embargo, suficiente hoy en día. Los programas de análisis de los buscadores son cada vez más sofisticados, por lo que debemos, además de acumular enlaces, tener en consideración otras cuestiones vinculadas respecto a la calidad de estos:

    • Los enlaces que proceden de dominios Top-level (.es, .edu, .org…) tienen más relevancia que los que apuntan desde otros dominios o subdominios.
    • El dominio del que proceden los enlaces, o a los que apunta, es muy relevante. Todos los enlaces no tienen el mismo peso. Por ejemplo, comparando la dirección IP de alguien que da links con la dirección IP de quien recibe ese link. Si al hacerlo se comprueba que ambas direcciones coinciden en el bloque C (la tercera parte, o sea, la penúltima, de las cuatro que forman el número IP), lo más probable es que ambas direcciones vengan del mismo proveedor e, incluso, tal vez del mismo servidor. (Fischer, 2007, pág. 193) En ese caso, el buscador devaluará el valor de esos enlaces.
    Análisis de una IP

    Análisis de una IP

     

    • Las redes naturales de enlaces, es decir, aquellas que siguen patrones lógicos de crecimiento, de relación temática, etc. son privilegiadas frente a aquellas otras que parecen artificiales (intercambio o compra de enlaces, granjas de enlaces…)
  • Medidas vinculadas con los enlaces: número y calidad

    Si los enlaces poseen tal importancia, es lógico que se hayan establecido distintas métricas que pongan en valor una página o un sitio web en función de cuántos enlaces apuntan a ella y la calidad que estos poseen (de alguna manera, entre otros muchos factores, la calidad vendrá determinada, a su vez, por el valor que posee cada una de las páginas o sitios desde los que apuntan esos enlaces).

    La importancia de un documento crece cuando otros documentos importantes incluyen links a él. Lo decisivo no es el número absoluto de links que lleven a la página. Naturalmente uno se pregunta de inmediato cómo consigue un documento ser “importante”. La respuesta es muy sencilla: consiguiendo que otros muchos documentos incluyan vínculos a su página. (Fischer, 2007, pág. 139)

    El algoritmo PageRankTM (PR) es uno de los más importantes. Creado por los dos fundadores de Google, ofrece un valor numérico, de 1 a 10, que muestra la relevancia comparativa otorgada por Google a un sitio Web dentro de Internet, en función del número de enlaces que recibe un sitio y el valor (calidad) otorgado a los mismos. Se trata de una referencia fundamental a nivel empresarial.

    El algoritmo HITS es un complejo algoritmo creado por Jon Kelinberg que mide la importancia de un documento en la Web, tomando como referencia la importancia de los sitios web en los que aparece citado, referido o enlazado. La relevancia se obtiene considerando dos categorías de sitios web relevantes:

    • Hub”: Sitios muy enlazados (como los directorios DMOZ, Google o Yahoo!) y que, a su vez, enlazan a sitios considerados relevantes. Normalmente, además, poseen administradores que evalúan la calidad de los enlaces, lo que supone una garantía añadida para los buscadores.
    • Authority”: Sitios que representan, en versión digital, el concepto de la  autoritas latina; es decir, sitios web que representan para muchos (y lo demuestran la cantidad de enlaces que apuntan a ellos) una referencia indiscutible en un tema dado. Aquellos enlaces que apuntan desde estos sitios son especialmente valorados.

    Backlinks es una métrica que muestra el número de enlaces que se dirigen a una página web determinada. Por tanto, resulta fundamental conocerla, y mejorarla, porque es un  índice básico de la calidad SEO de nuestro sitio y, en consecuencia, del valor de nuestro dominio. Cada buscador utiliza una sentencia distinta para conocer el número de backlinks. Por ejemplo:

    • En Google, se debe poner en la caja de búsqueda: “link:<URL a evaluar>”
    • En  Yahoo!, acceder a este enlace e indicar la URL que se desea comprobar.
  • Actualización de información

    Aunque es algo no comprobado (ningún administrador de los buscadores más conocidos ha dicho jamás que esto sea así) lo cierto es que los consultores SEO afirman, por los estudios de carácter longitudinal realizados sobre cómo los buscadores han evolucionado en el tratamiento de pequeñas actualizaciones (precios, ofertas…), que los motores de búsqueda están refinando sus algoritmos de tal modo que pueden privilegiar aquella información que parece, o se considera bajo diferentes parámetros, actualizada.

    Después de todo, esto parece lógico. Los buscadores, insistimos una vez más, quieren ofrecer los resultados que satisfagan de la forma más eficaz las preguntas de quienes confían en ellos para encontrar información, servicios…, así que es razonable pensar que aquello que esté actualizado, pueda ponderarse mejor.

  • Antigüedad de dominios

    Error 404

    Fuente: Flickr (Roberto Zingales)

    De esta gráfica forma podremos entender mejor este principio. Y es que, en un mundo tan volátil como el de la Red, la permanencia, la regularidad y la consistencia es un elemento de valor de primer orden.

    Todos hemos experimentando alguna vez la frustración de haber descubierto, en una página de resultados, un enlace que parece ir como anillo al dedo a la pregunta que estamos tratando de resolver y, cuando se pulsa, sale una respuesta como la de la imagen adyacente.

    Si esto nos sucede muy a menudo, posiblemente desconfiaremos de que el buscador esté haciendo bien su trabajo, así que es evidente que, como desean hacerlo bien, tratarán de evitarlo por todos los medios.

    Por otra parte, las malas prácticas SEO, o lo que  es lo mismo, el deseo de engañar a los motores de búsqueda posicionado de forma alterada un dominio en los resultados orgánicos del SERPs, ha hecho que estos tomen medidas para evitarlo, y una de ellas es favorecer aquellos dominios de larga duración: los “Crianza” y “Reservas” de buena añada.

    Como confirmación de esto, desde el año 2005, Google comenzó a aplicar lo que se conoce como efecto Sandbox. Se trata de un filtro que trata de evitar que los sitios web de reciente creación puedan obtener un posicionamiento clave de sus palabras clave en las SERPs (Search Engine Results Pages o Páginas de resultados del buscador), independientemente de que posea una buena optimización y/o numerosos backlinks. Se trata de eludir la actuación de los spammers y las prácticas Black Hat SEO.

    Como contrapartida, en los últimos años han crecido los parking de dominios, portales dedicados a la compra, subasta y reventa de dominios con un buen SEO y un alto valor en las principales métricas (PageRank, HITS, Traffic Rank de Alexa…). Un auténtico mercadeo al que, como veremos, también se trata de poner coto mediante los sistemas de análisis de Black Hat SEO y, también, desde las entidades encargadas de algunos dominios Top-Level como, por ejemplo los .es.

    Conclusiones:

    • Se debe sacar el máximo partido a los dominios consolidados
    • Evitar cambiar de dominio (aunque sean leves cambios de nombre
    • Cuando se realizan campañas específicas, salvo que se requiera realmente, puede ser preferible utilizar un subdominio que crear un dominio nuevo desde cero.
  • Buen servicio de hosting

    La web está llena de ofertas mareantes para alojar nuestro sitio Web. Realmente encontramos prestaciones casi ilimitadas a precios muy bajos. Pero, ¿cuántas cosas conocemos que son, a la vez, buenas, bonitas y baratas? Pues ya tienes la respuesta.

    Como en todo, debemos prestar atención al servicio de alojamiento que contratamos para nuestro sitio web. Existen numerosas posibilidades (hosting compartido, dedicado, servidores virtuales VPS, housing…) y lo importante es contratar aquella que mejor responde a las necesidades que tengamos.

    ¿Pero qué importancia posee esto desde la dimensión del SEO? Pues, singularmente, mucha. De entrada, la fiabilidad del servicio (tolerancia a errores, nivel de disponibilidad, gestión de backups, servicio técnico y soporte…), pero, sobre todo, el tiempo de espera y de respuesta para mostrar el sitio; es decir, cuánto tiempo tarda, una vez un usuario ha solicitado una página, en responder y ofrecer la misma.

    Nuevamente, como los buscadores tratan de satisfacer al usuario, los menores tiempos de respuesta serán mejor valorados.

  • Buen contenido

    Aunque la metáfora del tránsito de la Web nos lleva por playas en las que se surfea y mares apacibles en los que navegar, lo cierto es que la mayor parte de los internautas son auténticos exploradores que llevan cartas de navegar y finalidades muy precisas.

    Esto, desde luego, no va en contra de la natural serendipia que implica cualquier exploración en la Web, pero sí nos dice que los usuarios buscan, directa o indirectamente, información y servicios que puedan satisfacer necesidades concretas.

    Por ello, normalmente triunfan aquellos sitios que son capaces de cubrir esa demanda mediante buenos contenidos, materiales de calidad y servicios de alto valor añadido. Es evidente que ello supone tiempo, esfuerzo y recursos, pero más vale poco contenido y de calidad que mucho y de escaso valor. La calidad se recompensa con accesos, los acceso arrastran enlaces, los enlaces aumentan (como ya sabemos) el SEO, y el SEO genera confianza y valor en nuestros sitios

  • Estar en directorios de referencia

    Ya nos hemos referido a la volatilidad de la Web anteriormente. Esta, unida a su carácter abierto hace que las fuentes de autoridad estén mucho más dispersas y sea más difícil evaluar el valor real de la información. Por esta razón, los buscadores confían en determinados directorios que se convierten en fuente de referencia privilegiada. Si es así, caeremos en la cuenta de la importancia de ser “socios” (estar indexados) en dichos directorios.

    El mayor directorio internacional es el Open Directory Project (DMOZ), una enorme base de datos clasificada temáticamente y que es gestionada por grupos de voluntarios, especialistas contrastados en cada ámbito, que evalúan críticamente una por una todas las peticiones de los que quieren ser indexados. Esta revisión manual garantiza el nivel de calidad del índice, por lo que son evidentes las razones que avalan el prestigio que para los buscadores, y para otros directorios de referencia (Google, Yahoo!…) posee.

    Consejo: Hay que tratar de pertenecer a este Club.

 

gertrudix

Lecturer and Researcher on Digital Communication (Ciberimaginario - Rey Juan Carlos University - ICONO14)

Latest posts by gertrudix (see all)

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.