Qué es una auditoría SEO técnica y para qué sirve

Una auditoría SEO técnica consiste en realizar un estudio en profundidad del comportamiento de un sitio web a nivel técnico con el fin de detectar todos aquellos problemas que afectan a su correcto funcionamiento y que por tanto pueden estar impidiendo su adecuada indexación en el buscador Google.

Mediante el uso de diferentes técnicas y herramientas de análisis, el consultor SEO es capaz de determinar los puntos que se deben corregir y que hasta el momento estaban siendo un inconveniente en la progresión de la visibilidad del sitio.

Auditoría SEO técnica

La auditoría SEO se traducirá finalmente a un informe completo que se presentará al cliente, el cual estará formado por el estudio de 3 bloques importantes (Indexabilidad, Versión Móvil y WPO) y de las pautas a seguir para optimizar cada uno de los puntos que se deban revisar.

Indexabilidad

El apartado de indexabilidad es el más importante de este informe, puesto que en él se engloban multitud de aspectos relacionados con las posibles carencias que presente la web para ser accedida, rastreada e indexada por los buscadores.

Estas son algunos de las investigaciones que realizaremos:

URLs indexadas en Google

Estudiar la saturación nos ayudará a saber si la cantidad de páginas que se están indexando en Google es coherente con el número de páginas que deben indexarse en función del tamaño del sitio.

Páginas indexadas en Google

Desde Google Search Console seremos capaces de valorar si la saturación es adecuada o si, por el contrario, hay indicios de que no se están indexando todas las URLs que han de hacerlo. Esto podría ocurrir por ejemplo si el archivo robots.txt no es correcto o si no hemos implementado de forma óptima la etiqueta meta robots.

Por otro lado, se deberán analizar qué tipo de páginas se han indexado en el buscador y si éstas son relevantes o no para el usuario. En caso de no serlo, deberá procederse a su desindexación.

Enlaces internos rastreables

Una de las premisas para que una página determinada sea accesible a través de un enlace interno, es que dicho enlace sea rastreable. En caso de no serlo, las arañas de Google no serán capaces de acceder a esa página y por tanto la URL no se indexará.

Por ejemplo, los enlaces de la siguiente lista desplegable de opciones, no son rastreables:

Enlaces no rastreables en javascript

Contenido duplicado

Poseer contenido duplicado en nuestro sitio podría desembocar, si los robots de Google lo detectan, en una grave penalización por parte del buscador tras la cual sería difícil recuperar la visibilidad. En muchas ocasiones, el contenido duplicado se da sin que los administradores de la web se den cuenta, puesto que habitualmente no se realizan los análisis SEO pertinentes tras el desarrollo de un nuevo sitio web y previos a su publicación.

Hay dos tipos de contenido duplicado:

  • Interno: cuando en varias URLs de nuestro sitio se ha incluido el mismo contenido.
  • Externo: cuando nuestro contenido es el mismo que en webs de terceros.

Aquí vemos un ejemplo de contenido interno duplicado, debido a que la página muestra el mismo contenido tanto con las www en la URL como sin ellas:

Contenido interno duplicado

Thin content

El thin content se refiere al contenido escaso y de poca calidad que a veces se puede generar, por ejemplo, a través de la creación de tags, las cuales crean páginas con contenido poco relevante para el usuario.

Thin content

En la imagen anterior podemos observar una página que se ha encontrado en los resultados de búsqueda de Google y que no ofrece ningún tipo de información.

Puesto que debemos intentar mostrar siempre al usuario páginas con contenido relevante, debemos evitar la indexación de URLs en las que se haya generado thin content.

Redirecciones

Existen diferentes escenarios en los que es muy probable encontrar enlaces apuntando a URLs antiguas y produciendo redirecciones 301 o 302 durante el rastreo que aumentan innecesariamente los tiempos de navegación.

Esto puede darse, por ejemplo, tras migraciones de URLs o, en una tienda online, al redirigir un producto que ya ha dejado de fabricase hacia la ficha de otro similar.

Google recomienda eliminar todas las redirecciones del código, lo que implica actualizar todos los enlaces para que apunten a las URLs nuevas.

Por otro lado, llevar a cabo prácticas como los redireccionamientos JavaScript para mostrar contenido distinto al usuario y a los robots de los buscadores con el fin de mejorar posiciones en las SERPS, será susceptible de una dura penalización.

Este tipo de técnicas de black hat SEO llegaron a extenderse gracias a los buenos resultados que presentaban, no obstante, en la actualidad el algoritmo de Google ya es capaz de detectarlo, por lo que cada vez se emplea menos.

Archivo Sitemap.xml

El sitemap.xml es un fichero que debe contenerlas URLs indexables del sitio y que sirve para que Google sea capaz de rastrear con más facilidad y rapidez la web completa.

Enviando el sitemap al buscador, estaremos informándole exactamente de cuáles son las URLs que debe indexar. Esto no significa que vaya a indexar únicamente esas URLs, puesto que rastrea también aquellas webs que no poseen sitemap.

Archivo Robots.txt

El archivo robots.txt contiene todas las directrices de indexación que queremos transmitir a Google. En él insertaremos un listado de órdenes y parámetros con los que indicaremos al buscador qué  páginas queremos que se incluyan en el índice y cuáles no.

Contenido de la caché

Es necesario revisar el contenido de la caché del sitio para comprobar que no se estén cargando elementos de forma reiterada o que no se encuentren fragmentos de contenido innecesarios que han quedado ocultos para el usuario, pero que permanecen en la caché del sitio. Esto no haría más que retardar la carga de las páginas y, además, mostrar contenido distinto al usuario y al buscador.

Aquí tenemos la versión de solo texto del contenido de la caché de una página de ejemplo donde, a simple vista, no se observan elementos extraños ni repetidos en la cabecera del sitio:

Vista de caché de la página

Debemos tener en cuenta que no solo hay que revisar la cabecera, ya que otras partes como sidebars, pie de página, etc., también son susceptibles de contener elementos no deseados.

Canonicals

Las etiquetas de enlace canonical tienen una gran influencia en la indexación. Deben estar correctamente implementadas en el sitio, puesto que a través de ellas le estamos indicando a Google cuáles la URL que queremos que se indexe en cada caso.

Etiqueta canonical

Etiquetas de internacionalización

Las etiquetas de enlace alternate deberán usarse del modo en que indica Google para proceder a indexar las versiones internacionales del sitio en cada idioma. En estos casos, cada URL tendrá una URL correspondiente por cada idioma adicional, a las cuales se deberá apuntar mediante las etiquetas alternate.

Etiquetas alternate

Además, deben ser recíprocas. Es decir, desde cada página, se deberá apuntar a todas las URLs homólogas en los otros idiomas en los que se haya realizado la internacionalización.

URLs amigables

Las URLs de una web, en una situación ideal, han de ser legibles para un humano y, en lo posible, se recomienda que no sean excesivamente largas y no contengan caracteres irrelevantes o no relacionados con el contenido de dicha página.

URLs no amigables

Como vemos, esta URL contiene multitud de caracteres no relevantes y que no conforman una estructura lógica. Una URL óptima será aquella que no incluya IDs y posea únicamente palabras clave directamente vinculadas con el contenido.

Tras el análisis de las URLs del sitio, el consultor SEO deberá concluir si es conveniente llevar a cabo una migración y en caso de serlo, qué nivel de prioridad se otorga a esta tarea, la cual debe realizarse bajo un control exhaustivo de un profesional del SEO.

Paginación

Las directrices de Google indican que el contenido dividido en varias páginas, como puede ser el de un blog o el de una categoría con gran cantidad de productos, debe implementarse a través de etiquetas de enlace. Con este método, estamos indicando de forma clara al buscador cuáles son las páginas anterior y siguiente dentro del paginado, evitando así la duplicidad de contenido.

Protocolo HTTPS

Todas las webs que soliciten información personal a los usuarios, deberán incorporar obligatoriamente un certificado SSL que les permita disponer del protocolo seguro HTTPS.

Protocolo HTTPS implementado

Esto permite cifrar la información enviada desde el navegador hasta el servidor web. Además de otorgar mayor seguridad, este protocolo ofrece otro tipo de beneficios como mejora de la velocidad de respuesta del servidor y una mayor confianza a los buscadores, que se traduce en una mejora del ranking.

Si un sitio web que recoge información personal no trabaja bajo protocolo HTTPS, deberá proceder a realizar una migración controlada y supervisada por un consultor SEO.

 

Versión móvil

Para responder a las necesidades de todos usuarios, habrán de llevarse a cabo algunos análisis con tal de concluir si el sitio es capaz de visualizarse correctamente tanto en pantallas de equipos de escritorio como en smartphones y tablets.

Versión móvil de página

La forma ideal en que una web debe mostrarse al usuario es a través del sistema responsive. Para que una web sea considerada responsiva, el tamaño y la posición de sus elementos deben adaptarse en todo momento a las dimensiones de la pantalla en la que se estén mostrando.

Existen otras formas de adaptar la web a móviles, como servir el contenido en función de navegador detectado o crear distintas páginas para ordenadores y para móviles. No obstante, Google aconseja emplear diseños adaptativos (responsive).

Dentro de la auditoría SEO, este es uno de los puntos más importantes a analizar dado que el porcentaje de usuarios de móvil superó por primera vez en 2016 al de ordenadores de escritorio.

Se realizan también dentro de este apartado, diversos tests de velocidad de descarga de las páginas así como las pruebas necesarias para comprobar que el sitio presenta una usabilidad móvil adecuada.

 

WPO (Web Performance Optimization)

Tamaño de archivos y velocidad de descarga

Es necesario revisar el tamaño de los archivos que estemos incluyendo en las principales plantillas del sitio, puesto que un menor tamaño de éstos, permitirá al servidor dedicar más tiempo a rastrear el sitio y por tanto su indexación mejorará.

Tamaño de los archivos de página

Pero más importante que esto, es que mejorará de forma significativa la velocidad de carga de las páginas, lo cual tendrá como consecuencia una mejora de la experiencia del usuario y por tanto de los rankings.

Prueba de velocidad de descarga en móvil de Google

Las pruebas que se realizarán irán enfocadas a determinar las necesidades de optimizar el tamaño y peso de las imágenes, la cantidad de peticiones HTML, CSS y JavaScript, así como el tamaño de los ficheros a los que se invoca durante la carga.

Velocidad de respuesta del servidor

En ocasiones no basta con optimizar los archivos internos de las páginas, sino que los retardos más importantes vienen producidos por una baja velocidad en las respuestas del servidor.

Velocidad de respuesta del servidor web

En este punto, se estudian las cifras de los principales parámetros de respuesta y se determina si es o no conveniente realizar un cambio a un servidor más potente que permita mejorar de forma considerable la velocidad de descarga.

La combinación de optimización de recursos internos con el cambio a un servidor de mayor calidad, supondrá una mejora sustancial en los tiempos de descarga.

 

Herramientas de Análisis

Comprobamos que se dispone de acceso a las principales herramientas de análisis de Google, que son Google Search Console y Google Analytics. Si no existe este acceso, se procederá a la creación de los códigos y archivos necesarios para habilitar su uso.

Google Search Console

Al habilitar la herramienta GSC, accederemos de primera mano a la información específica sobre el estado del sitio web y contaremos con datos tan importantes como por ejemplo el número de páginas indexadas, la forma en que Google es capaz de leer y entender nuestra web, el despliegue internacional de los diferentes idiomas en que esté traducida, el estado de saturación de los sitemaps, los errores de rastreo que están encontrando las arañas de Google, estadísticas sobre la cantidad de páginas rastreadas y el tiempo de respuesta de estas páginas, mensajes directos de advertencias del equipo de Google, estadísticas sobre la aparición de nuestro sitio en el buscador y la interacción de los usuarios con el mismo.

Además, en Google Search Console deberemos asegurarnos de haber agregado cada uno de los perfiles internacionales que estemos empleando, de forma que podamos llevar un control por separado de cada uno de ellos.

Mensajes de error en GSC

Es necesario revisar con frecuencia los mensajes de error de Google Search Console puesto que a través de ellos Google nos informa de eventos relevantes que han ocurrido dentro de nuestro sitio, los cuales, por lo general requerirán el análisis de un experto en SEO.

Establecimiento del dominio preferido

Dentro de la propia herramienta, podremos seleccionar el dominio preferido con el que queremos que se indexe nuestro sitio (con www o sin www), en concordancia con la selección de dominio que hayamos hecho en nuestro hosting, con las etiquetas canonical, con las URLs de nuestro sitemap y con las URLs de nuestros enlaces internos.

Google Analytics

Google Analytics es el instrumento por excelencia para la medición de datos relacionados con las visitas y el comportamiento de los visitantes en nuestro sitio. Vinculando nuestra web con Analytics dispondremos de informes pormenorizados que nos ayudarán a evaluar el alcance de nuestra web a través de las diferentes fuentes de tráfico. Si vamos a realizar una campaña de SEO, será imprescindible utilizar este método para conocer el impacto de la misma y comprobar si las acciones de optimización están dando resultados.