[PASO 1] Estrategia SEO paso a paso para aumentar tu tráfico desde hoy

Esto es algo que me ha funcionado en el pasado con clientes y también con proyectos webs propios como el de dinosaurioss.com que es con el que trabajamos dentro del curso.

Voy a comentar cosas reales que he tenido que arreglar en la web de una clienta en particular que tenía una web sobre temas de feng shui y algunos errores típicos que también había en la web de dinosaurios para que veas si puedes encontrar estos mismos errores en tu web.

Son bastante comunes así que es más que posible que si.

Uno de los errores más típicos es generar muchas URLs basura sin contenido propio y además indexar “todas” las URLs de nuestra web.

Tanto en el caso de dinosaurios como en el caso de la clienta de feng shui existían las típicas URLs (y además indexadas):

generadas por archivos de autor (ejemplo: http://blogger3cero.com/author/admin-2/)
generadas por tags (ejemplo: http://blogger3cero.com/tags/kindle/)
generadas por paginaciones (ejemplo: http://blogger3cero.com/page/3/)
de artículos tipo thin content, es decir post muy muy cortos y que aportaban valor 0
Todas esas URLs hacen perder el tiempo a Googlebot (el robot de Google que se encarga de navegar por tu página para proceder a su posterior clasificación) y primero debemos desindexarlas y luego a ser posible bloquearlas (aunque las paginaciones no se deberían bloquear por robots).

Solo llevando a cabo un correcto uso del “noindex” y del “robots.txt” en la web de la clienta de feng shui el tráfico comenzó a subir lentamente.

En el caso de dinos se han hecho todavía muchísimas más cosas y ahora está a punto de sobrepasar ya a las 80.000 páginas vistas.

Si estás siguiendo paso a paso este post entra en el panel central del plugin de SEO que estés utilizando (normalmente Yoast o All in One) y constata que los puntos mencionados arriba están en noindex.

Cuando pasen los días, normalmente, desindexarán y luego podemos proceder a bloquear dichas URLs por robots.txt (desde los plugins de SEO también puedes acceder al robots sin necesidad de entrar por FTP).

A continuación te dejo un robots.txt modelo que está más que testeado por mi y que resulta perfecto para implementar en cualquier página WordPress:

User-agent: *
Disallow: /wp-login
Disallow: /wp-admin
Disallow: //wp-includes/
Disallow: /*/feed/
Disallow: /*/trackback/
Disallow: /*/attachment/
Disallow: /author/
Disallow: *?replytocom
Disallow: /tag/*/page/
Disallow: /tag/*/feed/
Disallow: /comments/
Disallow: /xmlrpc.php
Disallow: /*?s=
Disallow: /*/*/*/feed.xml
Disallow: /?attachment_id*
Sitemap: http://dinosaurioss.com/sitemapindex.xml

Con el tema de los contenidos pobres o thin content la cosa es un poco más complicada. Tenemos que proceder a agruparlos de manera efectiva y crear a partir de ellos contenido de calidad o si no es posible eliminar este thin content.

Explicaré el concepto primero y luego expondré una forma sencilla de solventar esto.

Cuando tú generas muchos post “de baja calidad” a lo largo del tiempo generas muchas URLs que no son capaces de traccionar tráfico a largo plazo.

¿Qué es para Google un contenido de baja calidad?

Un post que nunca ha recibido visitas orgánicas
Un post que desde hace muchos meses no ha recibido visitas orgánicas
Un post que no responde bien a la query del usuario

Yo en Blogger3cero tengo ahora mismo exactamente 322 post publicados, bien, imagina que se me va la olla y ahora publico otros 300 artículos de golpe.

Pero 300 artículos de mierda.

Es decir, en uno pongo una línea de texto, en otro pongo “hola”, en otro no pongo nada, en otro cuento cuales son mis series preferidas en Netflix… ¡tonterías varias!

Bien, de ese modo habría generado contenido de baja calidad de golpe y el 50% de mi contenido (suponiendo que antes las 322 entradas previas fueran de calidad) sería thin content y no traccionaría nada de tráfico (obvio).

Es decir, no se posicionarían para ningún término, no me traerían visitas…

Eso a Google no le gusta.

Debes tratar de que la mayor cantidad de URLs y contenidos dentro de tu web traccionen tráfico (por ese motivo en el curso he querido mostrar formas de hacer keyword research diferentes a cada una de las partes de la página web).

Lo que pasa es que esto es un ejemplo muy drástico (y muy tonto).

Normalmente hay contenido que hemos publicado hace tiempo que no tiene porque tener la mayor calidad del mundo pero que por el motivo que sea ha conseguido rankear más o menos bien en Google y trae algunas visitas.

Estos post serán los que fusionaremos con post nuevos, para conseguir unificar y agrupar contenido que Google volverá a subir dentro de sus resultados.

Una forma sencilla de hacerlo:

Cómo detectar thin content y unificarlo en contenido pilar para aumentar el tráfico
Resumen: Ordena en Google Analytics tus entradas por orden de menos a más tráfico captado en los últimos 30 días.

Después una vez identifiques las entradas que menos reciben visitas evalúa si puedes volver a generar contenido nuevo sobre ellas y fusiona ambos contenidos, los viejos con el contenido nuevo (que muchas veces subirá de golpe en los rankings).

Explicación paso a paso para que puedas ejecutar: Ve a Analytics > comportamiento > visión general >

Verás algo parecido a lo que te muestro en la captura de arriba. Ahí pulsas sobre > ver todo el informe y tendrás acceso a las entradas que tienen tráfico ordenadas de más tráfico a menos tráfico.

Tenemos que invertir este orden para que Analytics nos pinte por delante las que no tienen tráfico (el thin content sobre el que luego trabajaremos).

Para ello simplemente pulsamos sobre “Número de visitas a páginas” (1) y de ese modo Analytics nos mostrará delante lo que no tiene casi tráfico (esto se puede hacer todavía mucho mejor con Screaming Frog).

Después, debajo donde pone “Mostrar filas” haremos click en 500 para que nos muestre un panel más grande de resultados a visualizar (2).

Ahora tenemos que ir filtrando manualmente poco a poco. Al principio saldrán un montón de parámetros y URLs basura que han recibido tan solo 1 visita.

Cómo hemos puesto la vista de 500 en 500 en cuanto bajemos un poco empezaremos a encontrar post / entradas de nuestra web con poco tráfico, que es donde nos vamos a centrar.

Date cuenta en la siguiente captura que ya empiezan a aparecer post míos viejos que solo han recibido 1 única visita en los últimos 30 días.

Tendré que centrarme en ellos para ver que hago con estas URLs que le hacen perder el tiempo a Googlebot y que a su vez que no aportan visitas.

Haríamos un listado por ejemplo en Excel y después iríamos viendo de forma individual cómo proceder.

Una forma podría ser la siguiente:

Detecta los temas de los que hablan tus post que no tienen tráfico y agrúpalos bajo un mismo “topic”, “tema” o “categoría” por llamarlo de algún modo.

Imagina (por inventar un ejemplo) que de entre esos post que no tienen tráfico tienes muchos hablando de distintas actualizaciones de Google (Google Penguin, Google Panda etc).

Recuerda que no tienen tráfico, tal vez hayan sido post que han quedado desfasados en el tiempo y que a Google ya no le gustan.

En este ejemplo procederíamos a agruparlos con una redirección 301 a través del plugin Simple 301 redirect a un nuevo super-contenido titulado “Todos los algoritmos de Google de 2011 a 2017”.

De ese modo evitarías la canibalización que también te estaba perjudicando y llevarías fuerza a tu nuevo contenido.

Esta técnica bien empleada es devastadora en los rankings y yo la aplico con regularidad para determinadas keywords.
También reparé todos los errores 404 de mi web prehistórica con Ahrefs.

Además llevé a cabo una rápida auditoría con Screaming Frog para controlar los enlaces internos que apuntaban hacia los post antiguos (el thin content) que iban a ser movidos a otra URL (por la fusión de contenidos) y crear de nuevo esos enlaces internos para que apuntaran hacia las URLs nuevas.

Esto son solo unas pocas (poquísimas) pinceladas de errores que al ser solucionados mejoran la captación de tráfico orgánico, pero llevamos a cabo muchísimas más correcciones junto con mi equipo.