SEO

Indexación: esa amiga a la que cuidar

Indexación: esa amiga a la que cuidar

Por si no lo sabéis ya de otros post como este, mi nombre es Daniel, y formo parte del equipo de SEO en iProspect cuidando de aspectos técnicos como la indexación de páginas para los sitios web de nuestros clientes. Sí, trabajo en esa rama del marketing digital de la que llevan anunciando tantos y tantos años que muere… Pero no, “solo” se transforma. El día 25 de Octubre recibí una convocatoria para asistir al “Clinic SEO” organizado por eShow en IFEMA, y he decidido contaros mi experiencia e ideas obtenidas de los ponentes. Hoy quiero hablaros de la indexación, poniendo casos concretos y prácticos, así como herramientas que pueden ayudar en el día a día.

¿Qué es la indexación?

La indexación es, ni más ni menos, conseguir que tu sitio web aparezca en un motor de búsqueda en los resultados (índice). Esto se consigue gracias a que los bots de dichos motores de búsqueda (como Googlebot, el más común) rastrean nuestro sitio web analizando el código fuente, los contenidos, enlaces e información relevante con el fin de dar una clasificación a cada página del website, otorgándole una relevancia concreta y ofreciéndosela a los usuarios en función de su término de búsqueda.

Aspectos vitales: el enlazado interno de la página

Cada clic que nos dirige a una página o contenido distinto dentro del website (elementos del menú, footer, call to action...) es un enlace más que los bots deberán rastrear. Por lo tanto, será de vital importancia que los enlaces tengan sentido y sean de valor para ayudar la lectura del resto de la web. El menú principal y footer son recursos muy valiosos para facilitar dicha tarea.

PR Sculpting: ¿sirve realmente?

Este concepto-técnica se ha utilizado desde finales de la pasada década. Consiste en añadir una etiqueta “nofollow” a aquellos enlaces que son necesarios para una página pero no queremos que sean rastreados por los bots. De esta forma, si una página tiene una valoración de 10/10, y por ejemplo contiene 5 enlaces sabiendo que uno de ellos no nos resulta relevante, por lo que le añadimos la etiqueta “nofollow”, verá como la fuerza se reparte entre 4 enlaces solamente, y no entre 5. Esto fue así hace tiempo, pero como todo aquello que tomamos por sistema, los bots dejaron de tenerlo en cuenta, por lo que el impacto de esta técnica según el propio Matt Cutts dejo de ser tan relevante: “Matt Cutts dropped a bomb Shell that it no longer Works to help flow more PageRank to the unblocked pages”.

Enlaces JavaScript: ¿qué hacemos con ellos?

Los enlaces JavaScript los encontramos principalmente en selectores de filtros y opciones. Esto hace que se generen una cantidad enorme de URLs que realmente no tienen relevancia, ya que son búsquedas personales de usuarios. Esto influye de manera negativa en dos aspectos:

  • Los bots navegan por URLs infinitas de bajo valor, haciendo incluso que se pierdan en un bucle infinito de enlaces que realmente no conducen a indexar contenidos de calidad.
  • En caso de indexar, pueden influir negativamente en los resultados que se muestran, haciendo que otras páginas de mayor calidad obtengan una peor posición dentro de los resultados de búsqueda. Una de las soluciones más interesantes recomendadas es codificar en BASE 64 el código JavaScript con el que funcionan dichos enlaces. De esta forma, los enlaces realizarán la misma función, pero no generarán un alto número de URLs. Otros aspectos interesantes a codificar, serían el login, carro de compra, páginas legales… Lo más importante de todo esto, es entender la diferencia entre rastreo e indexación, conceptos íntimamente relacionados pero diferentes. El rastreo es realizado por los bots, y estos elijen que contenidos indexan en los motores de búsqueda.

Atributos y herramientas para una buena indexación

  • Archivo robots.txt: este archivo debe crearse en la raíz del servidor de la página web, se debería poder acceder desde www.paginadeejemplo.com/robots.txt. El archivo robots.txt sirve para indicar a los bots que contenidos no queremos que páginas internas del blog no sean rastreadas, o incluso que bots no queremos que rastreen nuestro sitio web. Si necesitas ayuda para construir este archivo para tu sitio web, puedes ayudarte del post del soporte de Google.
  • Archivo sitemap.xml: en este archivo indicaremos cuales son las páginas de nuestro sitio web con el fin de tener un listado completo de URLs. De esta forma nos aseguraremos que, al menos las páginas más relevantes, sean rastreadas por los bots de búsqueda. Si no vas a indicar la prioridad y frecuencia con la que quieres que sean rastreadas, puedes optar por subir un archivo .txt con todas las urls que deseas que se rastreen. Siempre es mejor dar menos información pero que sea correcta, a darla y que esta nos genere algún tipo de problema en la indexación. Este archivo debe ser proporcionado a Google a través de Google Search Console.
  • Etiqueta canonical: en caso de tener contenidos muy similares o duplicados, es importante añadir la etiqueta canonical en la página de menor relevancia con el fin de no caer en una mala práctica como es el contenido duplicado. Puedes ayudarte de herramientas como SEOBOX para encontrar las páginas con un contenido similar.
  • Etiqueta noindex: con esta etiqueta podremos hacer que un contenido sea rastreado, pero no indexado en los motores de búsqueda. Esta práctica se emplea principalmente en página relacionadas con el contenido legal, o simplemente aquellos sitios del web con un bajo valor para la actividad principal del sitio web, con el fin de no influir en los resultados de búsqueda.

Indexación: conclusiones

De igual manera que la usabilidad o claridad dentro de un sitio web es importante, lo son los aspectos técnicos relacionados con la indexación. Resulta de vital importancia dar prioridad y la mejor accesibilidad a aquellos contenidos relevantes, facilitando su rastreo a los bots con el fin de obtener la mejor indexación posible para nuestro sitio web. De igual forma, será de vital importancia que páginas no son relevantes, ocultando de cara a los bots de búsqueda su enlazamiento interno y procurando a su vez que la página web no se vea afectada en cuanto a su funcionamiento.

comments powered by Disqus