Índice de contenidos
Prólogo
Introducción
1. ¿Qué es y por qué hacer SEO?
Los buscadores & el comportamiento de la búsqueda
El rol del SEO: concepto & importancia
El SEO dentro del contexto del marketing online
La evolución del SEO
2. Estableciendo un proceso SEO
Los fundamentos del SEO
Las fases del proceso SEO
Las claves para establecer un proceso SEO exitoso
¿Cómo establecer objetivos para tu proceso SEO?
Las buenas prácticas de los buscadores & prácticas penalizables a
evitar
3. Cómo desarrollar un estudio de palabras clave
Concepto, importancia y objetivo de un estudio de palabras clave
Factores a tomar en cuenta en un estudio de palabras clave
Fuentes de información para un estudio de palabras clave
El proceso de selección de palabras clave
4. Optimización técnica para establecer una Web amigable a los
buscadores
Concepto, importancia y objetivo de la optimización técnica
Desarrollando una auditoría SEO técnica
Optimizando la Rastreabilidad & indexabilidad de tu Web
Optimizando la velocidad de tu Web
Optimizando una Web multi-dispositiva
Especificación de idioma & país objetivo
5. Optimización de contenido para desarrollar la relevancia de
tu Web
Concepto, importancia y objetivo de la optimización de contenido
Organización de contenido
Optimización de contenido
Uso de marcado estructurado
6. Desarrollando la popularidad de tu sitio Web
Concepto, importancia y objetivo del desarrollo de la popularidad Web
Criterios de la valoración de la popularidad de una Web
Desarrollando una auditoría & proceso de creación de enlaces
7. Midiendo los resultados del proceso SEO
Estableciendo KPIs para medir el proceso SEO
Monitorización el proceso SEO
Valorando el beneficio del proceso SEO
Créditos
A mi Ime: Este libro, como todo lo bueno que hago
o intento hacer, es para Usted.
AGRADECIMIENTOS
Soy una afortunada por haber contado con el gran apoyo de personas que
han hecho toda la diferencia en el proceso de creación de este libro, sin las
cuales el mismo seguramente no estaría en tus manos y a las cuales no
puedo más que agradecer profundamente:
• A Eugenio Tuya, el mejor, más amable y comprensivo editor: Gracias
por tu confianza, flexibilidad y apoyo constante. Gracias de corazón
por todo, Eugenio.
• A Gary Illyes, brillante profesional y gran persona: Gracias Gary por
tu voto de confianza al haber aceptado participar con el prólogo del
libro, ha sido un verdadero placer y honor poder contar contigo.
• A Javier Mendiguren & Doki, mi gran pequeña familia: Sin vuestra
comprensión infinita y ánimos constantes no hubiera podido terminar
el libro. Gracias por creer en mí. Este libro es vuestro también. Os
quiero :)
ACERCA DEL AUTOR
Aleyda Solís es una de las profesionales más
reconocidas internacionalmente en posicionamiento
de buscadores. Según la revista Forbes, se trata de
una de las 10 especialistas en Marketing Digital
más influyentes de 2015 y para Entrepreneur, es
una de las 50 influencers en Marketing online con
más seguidores en 2016. Con más de ocho años de
experiencia en SEO, se ha convertido en miembro
fundador de la Consultoría SEO Orainti, después de trabajar con
importantes empresas de Estados Unidos, Europa y Latinoamérica. Hoy
brinda su conocimiento a reconocidas marcas y nuevas empresas en una
industria cada vez más competitiva. A lo largo de su carrera ha dado más de
70 conferencias en 16 países del mundo y diferentes idiomas, desde Turquía
hasta Australia; además de participar en numerosas publicaciones, las más
importantes del sector, tales como: Search Engine Land, Moz, State of
Digital, entre otras.
Prólogo
Desde el nacimiento de internet hace más de un cuarto de siglo, pasar
tiempo online se ha convertido en una parte integral de nuestra vida. El
“Connected Consumer Survey 2016” señala que casi el 90% de la población
en España se conecta a la red diariamente con propósitos personales: para
comprar, reservar viajes, y entretenerse. Los negocios y los emprendedores
deben pues, tomar nota. Independientemente de si estás comenzando un
negocio o deseas ampliarlo, tener presencia y visibilidad online puede ser
vital para alcanzar el éxito.
Por fortuna, existen múltiples formas de crear una presencia online. Con
unos pocos clics cualquiera puede crear una página a través de una red
social, una tienda en una plataforma de e-commerce, incluso un sitio web
completamente funcional. Sin embargo, aunque todo ello puede resultar
fácil, atraer la atención a la misma se ha hecho algo más difícil en los
últimos años. Aún las grandes fuentes de tráfico para propiedades online
(redes sociales, buscadores, plataformas de e-commerce, portales web, etc.)
necesitan adaptarse rápidamente a las necesidades y exigencias de los
usuarios.
Por ejemplo: Hace una década leíamos las noticias en la prensa escrita, y
actualmente lo hacemos en su versión digital. Hace cinco años hacer la
compra en un supermercado on-line desde un móvil era cosa de ciencia-
ficción, pero ahora se está convirtiendo en algo habitual. La gente que solía
llamar a la peluquería para pedir cita, ya solo tiene que teclear unos cuantos
botones en su website para reservar. De igual forma, mantener la relevancia
en los sitios web y su fácil localización en la red, también ha cambiado.
El proceso de asegurar que los buscadores, y por tanto los usuarios,
encuentren tu contenido online rápidamente se llama Posicionamiento en
Buscadores (SEO en inglés), y el libro que tienes en tus manos es el mejor
método de aprender los diferentes factores que influyen en el sistema.
¡Puedes hacerlo tú mismo!
Pero, el SEO no es fácil. No se trata de una pieza mágica que traerá miles
de personas a tu sitio web, a tu perfil en las redes sociales o a la app móvil,
de la noche a la mañana. El SEO requiere un arduo trabajo, por lo que
deberás invertir tiempo en él; ya que el camino hacia miles de visitantes
diarios te presentará múltiples obstáculos.
Además, debes saber que, aunque sigas cada paso descrito en el libro, no
existen respuestas fáciles y puede que cometas algunos errores por ello, a
modo de reveses temporales. También tienes que aceptar que los buscadores
están en continuo cambio. Necesitan adaptarse al desarrollo y evolución de
la red, y asegurar que muestran los resultados más relevantes a las consultas
de los usuarios.
¡La buena noticia es que al elegir este libro ya has mostrado interés en
tomar el siguiente paso para hacer tu negocio más exitoso! Aunque no sea
una ciencia exacta, aprender a hacer SEO tú mismo es posible, y este libro
desvelará sus secretos tanto a principiantes como a estudiantes más
avanzados. La autora del libro, Aleyda Solís, ha estado haciendo SEO
durante años y es una de las especialistas más respetadas en el sector. Ella
es también una de las personas más apasionadas que conozco, alguien a
quien le importa profundamente ayudar a que los negocios prosperen en el
mundo online. ¡Has tomado la elección adecuada al comprar este libro, y
confío en que Aleyda pueda conducirte al éxito!
— Gary Illyes
Introducción
Cuando comencé a hacer SEO en el año 2007 tuve que recurrir a múltiples
fuentes de información: los blogs de SEObook, SEOmoz, Ojobuscador, o
comunidades como la de WebmasterWorld o SEOchat para iniciarme en los
conceptos del posicionamiento en buscadores.
Tuve la suerte de aprender en un ambiente que me permitía poner en
práctica lo aprendido y validar los conceptos que iba conociendo con otros
compañeros, algunos de los cuales tenían mucha más experiencia; lo cual
fue de gran ayuda: Soy de esas personas que necesita visualizar y
contextualizar los conceptos de forma práctica para entenderlos.
Cuando me ofrecieron escribir este libro sobre “las claves esenciales del
SEO”, me acordé de esos momentos de mis inicios en el SEO, en los que
echaba en falta tener una referencia que me llevara de la mano de forma
accionable y práctica para comenzar a hacerlo desde cero, más allá del
significado de los conceptos y los principios de funcionamiento del mismo
o las últimas actualizaciones. Y es que es imposible, debido a la naturaleza
del SEO, siempre en constante evolución, tener una documentación impresa
que lo incluya todo y además esté siempre actualizada. Sin embargo, sí que
es fundamental y facilita muchísimo el proceso de aprendizaje, tener una
que permita entender la lógica del mismo.
Por ello me establecí como objetivo ayudar a responder con este libro las
preguntas más comunes que surgen sobre cómo poner en marcha un
proceso SEO:
¿Cuáles son los pasos a seguir para desarrollar un proceso SEO?
¿Cómo estableces los objetivos de un proceso SEO: Cómo sabes
cuántas y qué palabras clave debes atacar, por ejemplo?
¿Cómo identificas el nivel de volumen y características de enlaces
entrantes que necesitas?
¿Cómo decides si debes indexar una subcategoría o una faceta de la
misma?
¿Cómo sabes que el proyecto SEO ha sido exitoso y cómo identificas
los aspectos a mejorar?
Estoy convencida que obtener las respuestas a estas y otras preguntas
enfocadas al desarrollo práctico del proceso SEO marcarán la diferencia
entre “conocer los conceptos” o “sobre la última actualización” y “saber
cómo implementar las actividades enfocadas a un proyecto real”. Este
conocimiento accionable es el que deseo brindarte con este libro.
¿QUÉ ENCONTRARÁ EN ESTE LIBRO?
Este libro te llevará de la mano a través de las distintas fases de un proceso
SEO, desde la introducción de los conceptos, pasando por la ejecución a la
monitorización de los resultados y la toma de decisiones en base a los
mismos:
1. Qué es y por qué hacer SEO.
2. Estableciendo un proceso SEO.
3. Cómo desarrollar un estudio de palabras clave.
4. Optimización técnica para establecer una Web amigable a los
buscadores.
5. Optimización de contenido para desarrollar la relevancia de tu Web.
6. Desarrollando la popularidad de tu sitio.
7. Midiendo los resultados del proceso SEO.
De igual forma, ya que deseo que este libro sirva para comenzar a
implementar un proceso SEO, verás que menciono de forma muy específica
ejemplos de ejecución de algunas de las tareas más claves usando
herramientas e incluyendo sus pantallazos y funcionalidades para obtener
cierta información.
Para además facilitar que puedas comenzar a usar muchas de estas
herramientas y como un beneficio adicional por haber comprado el libro, he
conseguido las siguientes ofertas especiales para los lectores que espero
sean de provecho:
SEMrush:
Obtén una cuenta Guru de SEMrush durante 2 meses (con un valor de
299$) sin necesidad de tarjeta de crédito. Regístrate a través de
cualquiera de dos modalidades:
• Usando el código promocional LIBROSEOALEYDA-ILUPJXD3
al darte de alta en promo.semrush.com
• Registrándote a través de esta URL:
es.semrush.com/product/promo/accept.html?
promo=LIBROSEOALEYDA-ILUPJXD3
Cabe señalar que esta oferta sólo funciona con cuentas no registradas
anteriormente en SEMrush.
URLProfiler
10% de descuento al suscribirte en cualquier plan de URLProfiler, ya
sea mensual o anual ingresando el código: libroseoaleyda.
Este código deberá ser ingresado en el segundo paso del proceso de
compra. Si tienes cualquier duda puedes verificar cómo se usa aquí:
support.urlprofiler.com/knowledge_base/topics/where-do-i-enter-my-
coupon-code
OnPage
5 Proyectos gratis en OnPage.org (con valor de 80 Euros) cuando te
hayas suscrito a cualquier cuenta de pago. Una vez que lo hayas
hecho, puedes ir a onpage.org/lp/libroseoaleyda para obtener los 5
proyectos extras en tu cuenta.
CognitiveSEO
20% de descuento siempre en tu cuenta al registrarte con
CognitiveSEO a través de esta URL: cognitiveseo.com/?
o=libroseoaleyda20
SEOmonitor
30 días de prueba y un 10% de descuento usando el código
libroseoaleyda cuando te des de alta en SEOmonitor.com
Kerboo
25% de descuento los primeros 2 meses, aplicable a cualquier plan
que elijas. Puedes registrarte en Kerboo.com y posteriormente enviar
un email a
[email protected] para pedir el reembolso del
descuento.
¿A QUIÉN VA DIRIGIDO ESTE LIBRO?
Estoy segura de que cualquier persona interesada en el SEO le sacará
provecho a este libro debido a su accionabilidad:
El especialista SEO: Para verificar otro tipo metodologías diferentes
de desarrollo para cierto tipo de análisis (ya que en el SEO se pueden
tomar múltiples caminos para alcanzar el mismo objetivo).
El desarrollador Web o Webmaster que desea conocer más sobre
SEO: Para poder implementar sus desarrollos siguiendo buenas
prácticas SEO y así asegurar que cuenta con una plataforma
optimizada desde un inicio para que no se requieran hacer cambios
estructurales para un proceso posterior.
El SEO principiante: Para la persona que está apenas comenzando, el
libro ofrece una forma muy práctica de conocer y entender cómo
funciona un proceso SEO.
Especialistas de otras disciplinas de Marketing online: Para aprender
más sobre ciertas actividades que realizan los especialistas SEO y
poder, de esta forma, apoyarse más mutuamente y expandir sus
conocimientos.
Dueños de negocios online o tomadores de decisiones: Aquellos que
desean aprender más sobre el funcionamiento del SEO para tomar
una mejor decisión al contratar y valorar los servicios de los
especialistas.
Aunque, sin lugar a dudas, debido a que este libro se enfoca a ser una
introducción al SEO (las “claves esenciales”), será de mayor utilidad para
aquellos que estén empezando.
1. ¿Qué es y por qué hacer
SEO?
“Cierto que casi siempre se encuentra algo, si se mira,
pero no siempre es lo que uno busca.” — El Hobbit
LOS BUSCADORES & EL COMPORTAMIENTO DE LA
BÚSQUEDA
El paradigma de búsqueda de información cambió con la popularización de
los buscadores Web en los años 90s del siglo pasado: a través de un sistema
de software accesible a cualquier usuario con acceso a Internet se podía
buscar información con base en la Web.
Hasta ese momento, los directorios Web —mantenidos por equipos de
editores y cuyo máximo exponente llegó a ser Yahoo!— habían sido la
forma más popular de encontrar información de sitios Web; sin embargo, la
automatización del proceso de encontrar y ordenar la información por parte
de los buscadores supuso una mejora cualitativa a nivel de velocidad y en
consecuencia, al volumen de contenido accesible.
Los buscadores encuentran la información a través de “rastreadores” —
robots automatizados— que navegan la Web siguiendo los enlaces incluidos
en las páginas, y que las conectan con otras.
Una vez que la información se encuentra por parte de los rastreadores, esta
se analiza y procesa a través de un algoritmo que decide qué información y
cómo almacenarla —no sólo páginas sino cualquier tipo de archivo que se
ha encontrado, como imágenes, PDFs, etc.— en su índice.
Posteriormente, cuando un usuario realiza una consulta, el buscador
identifica y posiciona los documentos de su índice en base a dos grandes
grupos de criterios:
Relevancia: ¿El contenido del documento es relevante y responde a la
consulta del usuario?
Popularidad: ¿Cuáles de los documentos relevantes son más
populares y tienen mayor autoridad?
De esta forma el buscador generará resultados posicionando los documentos
en base a su relevancia y popularidad relativa a la consulta del usuario. Este
funcionamiento se encuentra representado en la Figura 1.1.
Figura 1.1. Visualización del funcionamiento general de un buscador.
Fuente: cs.nyu.edu/davise/presentations/webCsplash.html
Sin embargo, esto no siempre fue así y aunque actualmente Google domina
el mundo de la búsqueda, no fue el primer buscador Web. El primero fue
Archie, creado en 1990; y posteriormente vinieron otros que alcanzaron
popularidad en los años 90s: Excite, Infoseek, Altavista, WebCrawler,
Lycos, LookSmart, Inktomi y Ask Jeeves todos antes de 1998, año en el
cual Google fue lanzado.
Entonces, ¿Por qué Google alcanzó el éxito si no fue el primero? Google
fue el primer buscador en tomar en cuenta los enlaces como un factor de
importancia o popularidad de las páginas a través de su algoritmo llamado
PageRank; lo cual le permitió comenzar a mostrar resultados de mejor
calidad que su competencia hasta el momento.
El algoritmo de PageRank, patentado por Google, analiza los enlaces
asignando un valor numérico a cada elemento enlazado de un grupo de
documentos, como en este caso, la Web; con el propósito de medir su
importancia relativa dentro del mismo.
Figura 1.2. La Home Page de Google en 1998.
Fuente: en.wikipedia.org/wiki/History_of_Google
Como se puede ver en la Figura 1.3, un enlace hacia una página se cuenta
como una referencia de voto al mismo, por lo cual si una página es enlazada
por muchas otras, recibe una alta valoración por parte del algoritmo.
Figura 1.3. Visualización del Funcionamiento del PageRank.
Fuente: en.wikipedia.org/wiki/PageRank
Otra de las características “distintivas” de Google fue la simplicidad y el
minimalismo de su interfaz —mostrando sólo una caja de búsqueda a través
de la que se podía buscar en la portada, y en sus resultados 10 enlaces hacia
las Webs pertinentes—, a diferencia de los buscadores existentes en la
época, que tenían un enfoque de diseño de “portal Web”, que poco a poco
fueron también adoptando las características “innovadoras” que hacían de
Google el nuevo favorito; sin embargo, conforme fue pasando el tiempo no
pudieron competir.
Figura 1.4. Evolución de las Funcionalidades de Google.
Fuente: insidesearch.blogspot.com.es/2013/09/fifteen-years-onand-were-just-getting.html
Actualmente, los diferentes algoritmos usados por Google son más
complejos y sus resultados están en constante actualización (como se puede
ver en la Figura 1.4): Incluyen cientos de factores, con capacidad de
búsqueda semántica, multi-dispositiva y ya multi-plataforma con la
búsqueda de contenido de las apps, reconocimiento de voz y hasta un
sistema de inteligencia artificial.
Todo esto ha ido de la mano también con la evolución del formato en el que
Google muestra sus resultados, que ha pasado de mostrar 10 enlaces de
texto orientados al escritorio, a ser multi-dispositivo y multi-formato, con
servicios del propio ecosistema de verticales que Google ha ido
desarrollando con el tiempo —Google Maps, Google Images, Vídeos de
YouTube, entre otros, como se puede ver en la Figura 1.5.
Todo esto permite a Google alcanzar su objetivo, que es dar una respuesta
efectiva, rápida y fresca a las búsquedas de los usuarios, muchas veces
directamente en su propia interfaz.
Figura 1.5. Los Resultados de Búsqueda de Google actualmente.
Según datos de Statista —que se pueden ver en la Figura 1.6— Google
cuenta con el 89.16% de cuota de mercado a nivel mundial, y es el buscador
líder en la gran mayoría de países, con contadas excepciones, como Baidu
en China (con el 79.81% del mercado en el segundo trimestre de 2015 1 ),
Yandex en Rusia (con el 53.4% del mercado en Diciembre de 2015 2 ),
Naver en Corea del Sur (con el 76.69% del mercado en Julio de 2014 3 ) o
Yahoo! en Japón.
Figura 1.6. Cuota de Mercado de los buscadores a nivel mundial.
Fuente: statista.com/statistics/216573/worldwide-market-share-of-search-engines/
Debido su liderazgo en el sector, el 55% de la inversión publicitaria en
buscadores a nivel mundial va destinada a Google 4 —es razonable querer
anunciarse y tener visibilidad en la plataforma que la mayoría de nuestra
audiencia objetivo está buscando información sobre productos o servicios—
alcanzando $44.46 Mil Millones de Dólares, lo que representa su mayor
fuente de ingresos, que soporta con su sistema de publicidad llamada
Google AdWords.
A través de AdWords Google ofrece la posibilidad de crear anuncios de
forma relevante que se mostrarán en las páginas de resultados de las
búsquedas cuando los usuarios busquen información relacionada a lo que
ofrecen los mismos.
Sin embargo, estos anuncios se incluyen específicamente en la parte
superior de la página de resultados de Google, sin mezclarlos con los
resultados orgánicos o naturales, que son los generados a través del
algoritmo de búsqueda, como se puede apreciar en la Figura 1.7.
Entonces, si tienes un negocio que desea hacer crecer las visitas e ingresos
de su Web maximizando la visibilidad y posicionamiento en los resultados
orgánicos, sin tener que realizar una inversión publicitaria en Google ¿qué
puedes hacer?
Ha llegado el momento de hablar del posicionamiento en buscadores,
también conocido como posicionamiento orgánico o SEO, por sus siglas en
inglés: Search Engine Optimization.
Figura 1.7. Página de Resultados de Google.
EL ROL DEL SEO: CONCEPTO & IMPORTANCIA
El posicionamiento en buscadores (SEO) es la disciplina de marketing
online que se enfoca a maximizar la visibilidad de una Web en los
resultados orgánicos de los buscadores, para los términos relevantes &
populares de cara al contenido de la misma, con el objetivo de alcanzar sus
resultados de negocio: Ya sea de visitas, registros, compras, solicitudes,
reservas, etc. O cualquiera que sea en dependencia de su modelo de negocio
y naturaleza.
El SEO se caracteriza por enfocarse en optimizar en las Webs los elementos
que los buscadores toman en cuenta para posicionarlas, y de esta forma
mejorar su ranking y visibilidad en los resultados de búsquedas orgánicas
para conectar más fácilmente con la audiencia objetivo.
Como se muestra en la Figura 1.8 —y como se ha verificado muchas veces
con múltiples estudios y pruebas— una mejor posición en los resultados de
búsqueda genera un mayor porcentaje de clics y visitas (aunque varíen en
porcentajes específicos en relación al tipo de dispositivo, tipo de búsqueda,
cantidad de anuncios, etc. aquí una referencia): La primera posición obtiene
una media que usualmente va del 25% al 30% de los clics de los usuarios,
la segunda posición el 15% y la tercera el 10%.
Sólo una media del 1% de los usuarios pincha sobre el décimo y último
resultado de la primera página de búsqueda de Google. De ahí el chiste
SEO: “El mejor sitio para esconder un cadáver es la segunda página de los
resultados de Google” (ya que prácticamente nadie la visita).
Figura 1.8. Comportamiento de clics en los resultados de búsqueda por posición.
Fuente: advancedwebranking.com/ctrstudy/
A pesar de los anuncios en la parte superior de los resultados, lo cierto es
que las primeras posiciones en los resultados orgánicos tienden siempre a
captar más la atención de los usuarios —lo cual ha sido varias veces
analizado con estudios de “eye tracking” o seguimiento ocular 5 —, no sólo
por la ubicación sino también por la información adicional que se incluye
con la Web en los resultados, como una descripción ampliada, imágenes,
mapas, etc.
EL SEO DENTRO DEL CONTEXTO DEL MARKETING
ONLINE
Es importante establecer las características diferenciadoras del SEO, sobre
todo versus la publicidad en buscadores, que es la otra disciplina de
marketing online con la que más se le compara, ya que ambas se enfocan en
captar visibilidad, visitas y conversiones desde los resultados de búsquedas.
Figura 1.9. Cómo los usuarios visualizan los resultados de búsquedas de Google.
Fuente: moz.com/blog/eye-tracking-in-2014-how-users-view-and-interact-with-todays-google-serps
Como ya se ha dicho, aunque los resultados orgánicos —a los que se enfoca
el SEO— y los resultados de la publicidad de Google tienen como objetivo
mostrar información relevante a las búsquedas del usuario, funcionan con
sistemas y algoritmos distintos.
Con el SEO, además de una mayor visualización gracias a los resultados
orgánicos —sobre los anuncios de pago—, que conlleva más clics, visitas y
resultados, se pueden obtener resultados más costo-efectivos a largo plazo
para los negocios.
Esto se debe a que, como se distingue en la Figura 1.10, a diferencia de los
anuncios, en el caso del SEO no se debe de pagar por cada clic que se
recibe; sino que se invierte en mejorar la optimización del sitio, y aunque
esto es una actividad constante que debe realizarse a largo plazo,
usualmente el mayor esfuerzo está al inicio del proceso, mientras que con la
publicidad en buscadores tiene que pagarse siempre una determinada
cantidad si se quiere mantener la web con los anuncios. En el momento en
que se deje de pagar no aparecerán más en los resultados.
Figura 1.10. Características de SEO vs. PPC.
Por otro lado, el presupuesto que se destina al proceso de posicionamiento
en buscadores está enfocado a invertir a nivel de optimización técnica,
contenido y popularidad del sitio Web, y no en el pago recurrente a la
plataforma de publicidad de Google, por lo que en realidad se puede
considerar una inversión y no puramente un gasto a una plataforma externa.
Figura 1.11. Interacciones del usuario con distintos canales de marketing online.
Fuente: thinkwithgoogle.com/tools/customer-journey-to-online-purchase.html
Sin embargo, es importante señalar que debido a la naturaleza “inmediata”
de los anuncios —se puede crear y lanzar una campaña en cualquier
momento— y la del efecto a largo plazo del SEO —en el que se tienden a
ver resultados después de meses—, aunque la inversión de este último
puede llegar a ser más costo efectiva a largo plazo, realmente no son
sustituibles el uno por el otro, sino más bien complementarios dentro de las
distintas acciones y estrategias en marketing online.
Así mismo, si se tiene la capacidad de conjugar tanto un proceso SEO una
campaña de publicidad en buscadores, ambas actividades no sólo
maximizarán la visibilidad de la marca en los resultados de búsquedas, sino
que además se podrán beneficiar y aprender de los resultados del otro; y
conjugar las estrategias para maximizar beneficios, por ejemplo, enfocando
la campaña de pago a aquellas áreas menos competitivas a nivel publicitario
y quizás más compleja de posicionar en SEO, o que requieran una
inmediatez que el SEO no pueda proporcionar, entre otras—.
De forma similar, hoy en día para maximizar los resultados de cualquier
campaña de marketing online, se debe analizar dónde se encuentran los
usuarios en los distintos momentos del proceso de compra, no sólo al buscar
en Google, sino al interactuar y compartir en redes sociales, consumiendo
información en Webs de noticias relevantes al sector, etc. y tener una
presencia activa y optimizada, enfocada a conectar con los mismos en cada
momento.
De allí la importancia de establecer un proceso SEO que forme parte y
conecte con una estrategia y objetivos de marketing online que conjugue
todos los canales a través de los que se puede conectar con el usuario en su
ciclo de vida, previo, durante y posterior al momento de la compra o
conversión con la Web.
Esto cambiará por país, sector, tipo de empresa, posición de la empresa, etc.
como muestra Google en el estudio y herramienta de “The Customer
Journey to Online Purchase” 6 .
LA EVOLUCIÓN DEL SEO
Aunque en la actualidad, tanto en Europa como Estados Unidos, el
posicionamiento en buscadores se relaciona directamente con la
optimización para Google por su posición de líder indiscutible y
prácticamente absoluto en el sector, lo cierto es que a pesar de que el SEO
se popularizó de la mano del propio éxito de Google como plataforma de
búsqueda; ya se optimizaban antes de su existencia de forma mucho más
básica las Webs para mejorar su posicionamiento en los buscadores de
entonces, centrándose en la optimización de ciertas etiquetas y el propio
contenido del sitio.
Posteriormente, con el lanzamiento y la popularización de Google, que
tomaba en cuenta los enlaces de cara al posicionamiento; las técnicas SEO
se actualizaron para también comenzar a optimizar los mismos; y conforme
Google ha ido madurando con algoritmos más complejos, enfocados al
comportamiento del usuario, con capacidad semántica, multi-formato,
multi-plataforma y hasta con capacidad de “autoaprendizaje”; actualizados
cada vez de forma más frecuente y actualmente, prácticamente constante;
de la misma manera, las actividades del posicionamiento en buscadores han
ido evolucionando tomando en cuenta estos cambios para mantener su
efectividad.
En la Figura 1.12 puede verse un histórico de los cambios más importantes
conocidos del algoritmo de Google desde 2003 a 2015 hecho por Hubspot
con datos archivados por Moz, en el que se observa cómo ha ido
evolucionando con filtros, funcionalidades y tecnología para adaptarse
mejor al comportamiento del usuario, con muchos de ellos enfocados
también a eliminar el spam de sus resultados, con el objetivo de generar los
mismos con una mejor calidad y que realmente se correspondan con el tipo
de Webs que el usuario está buscando.
Es por ello que el SEO, aunque en su momento naciese con una serie de
acciones puntuales, sobre todo enfocadas en el aspecto técnico y de
contenido básico, para maximizar la visibilidad en los resultados orgánicos,
ha evolucionado para ser una disciplina integral —y más compleja que otras
— del marketing online, que requiere involucrarse y comprender no sólo
del aspecto técnico, sino también el contenido, el negocio y la promoción
de la Web.
El SEO actualmente no se trata de un conjunto de trucos, sino de un proceso
para el cual se requiere realizar un estudio para establecer la estrategia a
seguir en base al comportamiento de la audiencia en el proceso de
búsqueda, las características de la Web vs. la competencia y la industria en
general, las características y perfil del sitio; para así alcanzar objetivos a
corto, medio y largo plazo que sean costo efectivos para el negocio.
Como se puede ver, el proceso SEO actual busca optimizar los resultados de
la Web para conectar con los usuarios, usando el buscador como “el puente”
para hacerlo, no como el destino final.
Figura 1.12. Historial de Actualizaciones Importantes de Google desde 2003 hasta abril 2015.
Fuente: blog.hubspot.com/marketing/google-algorithm-visual-history-infographic
Curiosamente, cada vez que se hace una actualización importante por parte
de Google, se publican artículos sobre cómo el SEO morirá por esa
actualización —en la Figura 1.13 se muestran los resultados de Google para
esa búsqueda “El SEO ha muerto” con más de 3,000 resultados—.
En realidad, lo que mueren son ciertas tácticas puntuales que se enfocaban a
atacar factores que se van desechando y que ya no tienen influencia, por lo
que comienzan a tomarse en cuenta otros que tienen que ver con las
funcionalidades que el buscador va incorporando.
Figura 1.13. Resultados para “El SEO ha muerto”.
Por lo general, quienes hablan de la muerte del SEO son quienes aún ven el
posicionamiento en buscadores como un grupo de “trucos”, y no como
aquello en lo que se ha convertido ya, es decir, el proceso que conecta y se
integra con otras disciplinas de marketing online. Hasta el propio Google ha
publicado una guía SEO para principiantes 7 con buenas prácticas
fundamentales a tomar en cuenta para la optimización de una Web.
De igual forma, a pesar de la evolución de Google al implementar filtros en
sus algoritmos (muchas veces llamados “penalizaciones”, que también
pueden ser manuales) enfocados a filtrar el spam y las Webs que no siguen
sus buenas prácticas y guías de calidad —tanto a nivel de diseño, contenido
y técnico 8 —, lo cierto es que el buscador siempre tiene áreas de mejoras y
puntos débiles o carencias a las que también se pueden sacar provecho.
Como ocurre en casi todas las disciplinas, en este caso existen también
especialistas SEOs llamados “black hat” (o de sombrero negro) que se
enfocan a sacar provecho de estas prácticas que buscan atacar las
vulnerabilidades del buscador para “engañarlo” y así ganar posiciones y
resultados con facilidad.
El problema de enfocarse a aprovechar las carencias del buscador para
mejorar los resultados —en lugar de optimizar los factores que este valora
de forma positiva, siguiendo además sus buenas prácticas— es que con el
ritmo de mejoras y la evolución constante de Google, hay que ser
consciente de que por un lado, el tiempo de efectividad puede ser corto y
por otro, una vez que Google filtre (o penalice manualmente) una Web, esta
perderá los resultados casi siempre obtenidos hasta el momento, por lo cual
esta puede ser una decisión crítica a nivel de la supervivencia del negocio,
que no se recomienda tomar a la ligera.
Sin embargo, es posible establecer un proceso SEO exitoso consistente con
las buenas prácticas del buscador, que no suponga un riesgo para el negocio
de la Web y que se integre en el resto de las actividades de marketing online
del sitio. En los siguientes capítulos del libro, me centraré en compartir las
distintas etapas del proceso, actividades, criterios, técnicas y herramientas
para desarrollarlo.
1 chinainternetwatch.com/13992/chinas-search-engine-market-q2-2015/
2 liveinternet.ru/stat/ru/searches.html?slice=ru
3 english.yonhapnews.co.kr/business/2014/08/25/4/0501000000AEN20140825000800320F.html
4 emarketer.com/Article/Google-Will-Take-55-of-Search-Ad-Dollars-Globally-2015/1012294
5 moz.com/blog/eye-tracking-in-2014-how-users-view-and-interact-with-todays-google-serps
6 thinkwithgoogle.com/tools/customer-journey-to-online-purchase.html
7 googlewebmaster-es.blogspot.com.es/2008/11/gua-seo-de-google-para-principiantes.html
8 support.google.com/webmasters/answer/35769
2. Estableciendo un proceso
SEO
“No existen preguntas sin respuesta, solo preguntas mal
formuladas.” — Matrix
LOS FUNDAMENTOS DEL SEO
Si hay un concepto que es fundamental para establecer un proceso SEO —y
más allá del buscador para el que se posicione— es que posicionarse en los
resultados de búsqueda para maximizar su visibilidad, no es el objetivo
final del proceso SEO, sino un puente para alcanzarlo.
El objetivo real es conectar con la audiencia que busca lo que ofrece el
negocio de la Web que se está posicionando y que la misma encuentre lo
que esté buscando en el sitio que optimizamos, de forma que este alcance su
objetivo a nivel de negocio: vender su servicio, producto; ofrecer su
contenido, etc.
El buscador es entonces el puente a través del cual conectamos con la
audiencia y alcanzamos nuestros objetivos, específicamente los resultados
de búsqueda, como se puede apreciar en la Figura 2.1.
Figura 2.1. Los resultados de búsqueda representan el puente para alcanzar los objetivos del proceso
SEO.
Pero, ¿cómo maximizar la visibilidad de tu Web en los resultados de
búsquedas de Google?
Tradicionalmente el SEO se ha enfocado a mejorar el posicionamiento de
las Webs. Como vimos en el capítulo anterior, el porcentaje de visibilidad y
clics desde los resultados van en su mayor parte a los primeros resultados.
Existen dos grandes grupos de factores que influyen en el posicionamiento
y que abordaremos con mayor detenimiento en los siguientes capítulos:
La relevancia: Viene por la coincidencia a nivel contenido de las
páginas con la búsqueda realizada por el usuario.
La popularidad: Se mide por los enlaces entrantes que reciben las
páginas desde otras Webs.
Figura 2.2. La relevancia y la popularidad son los dos grandes grupos de factores a nivel de
posicionamiento.
Adicionalmente, es importante señalar, que además de la mejora del
posicionamiento, existen formas complementarias de mejorar la visibilidad
de una Web en los resultados de búsqueda —sobre las que también se
profundizará en los siguientes capítulos del libro—, mostrando mayor
cantidad de información o un formato distinto que conecte mejor con el
usuario.
De esta forma la Web se diferencia de la competencia mientras se saca
provecho a las distintas funcionalidades del buscador. Por ejemplo,
obteniendo resultados geolocalizados en Google Maps con el llamado
“snack pack” para las búsquedas locales o resultados de imágenes, artículos
de noticias incluyendo la foto, entre otros.
Figura 2.3. Resultados de la búsqueda universal que integran distintos servicios y formatos de
contenido.
Además de estas dos grandes áreas de múltiples factores que influyen en el
posicionamiento, tenemos la Web, que es la base sobre la que operan los
buscadores, que debe de optimizarse para garantizar que estos puedan
acceder a la información de los sitios de forma correcta.
Teniendo en cuenta lo anterior, se puede establecer una “pirámide” con las
distintas grandes áreas que se deben tomar en cuenta en un proceso SEO:
La rastreabilidad e indexabilidad del sitio
Se enfoca en garantizar que el contenido de las Webs sea accesible y
“comprensible”, pueda ser encontrado, valorado y guardado por los
buscadores. Entre las acciones relacionadas con la optimización de
cara a la mejora de la rastreabilidad e indexabilidad se encuentra el
enlazado interno del sitio, la estructura de la Web, la configuración
móvil, la velocidad de carga del sitio, entre otros.
La relevancia
La coincidencia del contenido y elementos del mismo con los
términos usados por los usuarios al buscarlo. Para ello se debe
garantizar que los textos, las imágenes y vídeos incluyan contenido
con los términos relevantes, información única, siempre fresca y
actualizada, así como informando sobre el significado del contenido
con el uso de marcado estructurado, entre otras técnicas y buenas
prácticas.
La popularidad
El desarrollo de la autoridad de las páginas y la Web en su sector y
temática a posicionar, con el establecimiento de campañas de enlaces
que atraigan enlaces desde otras Webs que además de representar una
fuente de tráfico, potencien las señales de popularidad de cara al
buscador.
La rastreabilidad e indexabilidad del sitio es la base de la pirámide ya que
aunque un contenido sea relevante o popular, si no es rastreable o indexable
a través de una estructura optimizada y accesible, el buscador no lo podrá
encontrar.
Figura 2.4. La pirámide de las distintas áreas de factores en el proceso SEO.
LAS FASES DEL PROCESO SEO
Más allá de las distintas áreas a tomar en cuenta en el proceso de
posicionamiento, para que todas las acciones de optimización tengan una
correspondencia —no sean actividades inconexas— y cumplan con un
objetivo y estrategia común, deben de desarrollarse siguiendo las fases del
proceso SEO:
El estudio de palabras clave
Es el estudio de mercado que orientará el proceso SEO a través del
cual identificaremos el comportamiento de búsqueda y la demanda de
la audiencia objetivo, el nivel y situación de la competencia vs. el
nuestro, para finalmente establecer y priorizar las palabras clave a
atacar en el proceso de posicionamiento, y los objetivos de
visibilidad, tráfico y conversiones a alcanzar con los mismos.
Optimización técnica y de contenido
Una vez que se han establecido los términos a posicionar, es
fundamental optimizar las distintas áreas del sitio garantizando que
sean rastreables, indexables y que las distintas áreas del contenido
sean relevantes y se optimicen de cara a los términos establecidos.
Campaña de enlaces
Una vez que se haya identificado qué áreas del sitio y qué páginas se
posicionarán con según qué términos, llega el momento de potenciar
su popularidad, a través de una campaña de enlaces que promocione
el sitio para atraer enlaces desde otras webs.
Medición de resultados
Es importante establecer métricas y KPIs, además de objetivos que
permitan monitorizar el avance del proceso en las distintas áreas
sobre las que se está trabajando: Desde niveles de rastreabilidad e
indexación, hasta el posicionamiento de páginas optimizadas para las
palabras clave, hasta sus niveles y comportamiento de tráfico y
conversión, que sirvan para seguir optimizando el propio proceso
SEO, reenfocando el mismo a aquellas áreas que funcionen mejor,
eliminando acciones poco costo-efectivas, etc.
Como se puede ver en la Figura 2.5, este proceso debe ser iterativo e
incremental, para una mejora continua, e incluye acciones de optimización
que debe involucrar a las distintas áreas de la Web y empresa a nivel
general.
Figura 2.5. Las fases del proceso SEO.
En los siguientes capítulos del libro se detallarán las actividades a
desarrollar en cada una de las fases del proceso SEO, para lograr los
objetivos establecidos para el mismo.
LAS CLAVES PARA ESTABLECER UN PROCESO SEO
EXITOSO
Una de las claves fundamentales para el éxito de un proceso SEO está en su
multidisciplinaridad. Para que un proceso SEO salga adelante, se deben
involucrar esfuerzos y recursos de múltiples áreas: a nivel técnico, de
usabilidad, contenido, diseño, analítica, entre otros.
Es indispensable asegurar el apoyo de los mismos desde el inicio, y no sólo
a nivel de recursos, sino también de la flexibilidad que permitirá
implementar las recomendaciones a desarrollar.
En el caso de que esto no pueda ser garantizado, se debe de tener en cuenta
en el momento de hacer planificaciones y dar expectativas en relación a los
resultados, qué se puede esperar del proceso. Hay que recordar siempre que
de poco sirven unas recomendaciones SEO si estas no son implementadas.
Para asegurar que las recomendaciones SEO sean más fáciles y
gestionables, es indispensable establecer un marco de trabajo, siguiendo
buenas prácticas de gestión de proyectos, priorizando, comunicando,
coordinando, validando y documentando la implementación de las mismas.
Figura 2.6. La interacción del SEO con otras áreas.
Fuente: en.pedrodias.net/seo/seo-predictions
De igual forma, es fundamental para el proceso SEO que se establezcan los
canales de comunicación desde el inicio con el cliente y se brinden durante
el proceso de forma efectiva y recurrente expectativas realistas y
transparentes sobre el mismo.
Finalmente, otra de las claves está en el enfoque estratégico, que deberá
establecerse en base a los objetivos que se definirán en el momento de
realizar el estudio de palabras clave.
Ó
¿CÓMO ESTABLECER OBJETIVOS PARA TU PROCESO
SEO?
Para desarrollar un proceso SEO costo-efectivo con un alto retorno de
inversión es fundamental establecer objetivos que se enfoquen a las
necesidades del negocio del sitio y tome en consideración el
comportamiento, características, restricciones de la Web y el mercado,
recursos y tiempo disponibles, ya que de otra forma será muy fácil terminar
con objetivos poco realistas que lleven a un proceso SEO ineficaz.
Por eso es crítico establecer los objetivos con el resultado del estudio de
palabras clave & análisis de la competencia al comenzar el proceso, para
que este posteriormente se corresponda y enfoque a alcanzar los mismos.
Una solución para establecer objetivos SEO costo-efectivos es seguir las
directrices SMART —o su versión extendida, SMARTER (acrónimo en
inglés de Específico, Medible, Alcanzable, Relevante, Basado en el
Tiempo, Ético, Documentado)— que ayudarán no sólo a establecer
objetivos sino también a identificar y gestionar las mejores estrategias para
alcanzarlos:
Específicos
La forma más fácil de establecer objetivos específicos y claros del proceso
SEO, es comenzar a enumerarlos de acuerdo a las respuestas que se
obtienen al realizar preguntas fundamentales sobre el proceso SEO, como:
¿Qué?
• ¿Qué es una conversión para tu sitio? ¿Cuáles son sus objetivos de
negocio?
• ¿Qué deseas lograr con el proceso SEO que ayude a alcanzar los
objetivos del sitio?
• ¿Qué restricciones y requerimientos técnicos, de contenido o
promoción existen actualmente?
¿Quién?
• ¿Quién es tu mercado objetivo y cómo se comporta?
• ¿Quién es el tomador de decisiones?
• ¿Quién forma parte del proyecto? Quienes son las partes
interesadas en el proceso?
• ¿Quién estará involucrado y con quien podrás contar para apoyarte
en el proceso SEO —desarrolladores, escritores, link builders,
community managers, PR, etc.—?
¿Dónde?
• ¿Dónde Se implementarán las actividades del proceso SEO: In-
House, agencia externa o freelancers?
• ¿Dónde tiene presencia online tu negocio aparte de tu sitio —redes
sociales, comunidades, afiliados, etc.—?
¿Cuál?
• ¿Cuál es el producto o servicio más importantes a potenciar del
negocio? (los más populares, mayor margen de beneficio, etc.)
• ¿Cuál es la situación actual del sitio? ¿El posicionamiento y
optimización actual?
¿Por qué?
• ¿Por qué deseas comenzar un proceso SEO? —identifica las
expectativas para gestionarlas—.
• ¿Por qué el sitio está diseñado, organizado y optimizado tal como
está en este momento? —comprende las razones del estado actual
del sitio—.
Cuando tengas las respuestas a estas preguntas entre otras que sean
fundamentales para establecer el perfil del proceso SEO, puedes hacer un
listado priorizado con los requerimientos, restricciones del sitio y una visión
general de su negocio online, recursos y organización.
Con esta preguntas podrás realizar un análisis inicial para desarrollar el
primer borrador de los objetivos SEO, que después podrás filtrar en base a
los siguientes factores a tomar en cuenta.
Medibles
Es indispensable que establezcas cómo vas a medir los objetivos que has
comenzado a definir, cuáles serán las métricas que usarás para ello, las
fuentes de información y herramientas para obtenerlas: ¿Un incremento en
tráfico orgánico a nivel general de la Web? ¿Una mejora en el tipo de
conversiones que podrás obtener al potenciar determinado producto o
servicio? ¿Más usuarios en determinadas áreas del sitio? Es indispensable
que establezca cómo medirás los objetivos del proceso SEO.
Ahora que tienes una visión completa con un listado de los objetivos
deseables que son medibles y otro con los requerimientos y restricciones del
sitio, así como su estado actual y recursos disponibles, puedes verificar qué
tan razonables son los objetivos de acuerdo a las características y la
situación actual del sitio vs. la competencia y su importancia de cara al
negocio.
Con esta información cuando ya conozcas las distintas áreas y factores que
influyen en el proceso SEO y una vez hecho el estudio de palabras clave,
competencia y auditoría inicial, podrás identificar cuáles son las estrategias
más factibles de implementar para alcanzar los objetivos.
Adicionalmente, ya en este momento podrás priorizar los objetivos dentro
del proceso SEO —o hasta dejarlos para siguientes procesos en el caso de
que sean muy ambiciosos y no realistas de alcanzar por el momento—.
Relevantes
Con el listado específico, medible y alcanzable de objetivos, es importante
que verifiques su relevancia al negocio del sitio y el tipo de conversión —
ya sea compras, registros, solicitudes, etc.— que buscas alcanzar con cada
uno de ellos.
Evalúa la importancia de cada objetivo especificado hacia los beneficios del
sitio, asegúrate de que los beneficios esperados sean razonablemente más
altos que los costos relacionados de implementar las estrategias para
alcanzarlos —para un alto ROI (Retorno de la Inversión)— y priorizar
nuevamente tus objetivos SEO de acuerdo a esto (o dejarlos para el
siguiente proceso SEO).
Figura 2.7. Calculadora de ROI para un proceso SEO.
Fuente: aleydasolis.com/en/international-seo-tools/roi-calculator/
Para hacer este cálculo del ROI esperado del proceso SEO se puede tomar
como referencia el porcentaje y el costo medio de conversión actual del
sitio, y de esta forma establecer el número de visitas y conversiones
requeridas para generar un beneficio.
Es importante que el volumen de búsqueda de las palabras clave a las que te
enfocarás te permita en algún momento en el proceso alcanzar la cantidad
mínima requerida de visitas y conversiones para alcanzar los objetivos
deseados.
Puedes realizar este cálculo tomando en cuenta el porcentaje de clics medio
por posición y los distintos escenarios de posiciones que alcanzarías en base
al nivel de competencia a corto, medio y largo plazo. Existen ya
herramientas como SEOmonitor que facilitan y automatizan en gran medida
este tipo de cálculo, como puede ver en la Figura 2.8.
Figura 2.8. Funcionalidad de predicción de tráfico orgánico de SEOmonitor.
Fuente: seomonitor.com/
Basados en el Tiempo
¿Cuándo planeas lograr cada uno de los objetivos? Ten en cuenta el tiempo
requerido para implementar las estrategias y actividades relacionadas. ¿Se
encuentran estos tiempos dentro del plazo esperado?
¿Cuánto tiempo llevará comenzar a ver resultados para cada una de las
etapas del proceso SEO? Toma en consideración la estacionalidad del
negocio y desarrolla un calendario que puedas usar para dar seguimiento a
la implementación de las actividades SEO y el alcance de los objetivos a
través de los indicadores claves.
Éticos
Verifica que los objetivos que esperas alcanzar y las estrategias que tienes
planificadas a implementar, siguen con las directrices de los buscadores y
los principios éticos de tu propio negocio y el del cliente.
Recuerda que no sólo es importante lograr un resultado que te beneficie de
forma inmediata desde un punto de vista de negocio pero que también sea
escalable y sostenible a largo plazo.
Documentados
Para medir posteriormente el éxito, es fundamental que documentes los
objetivos, las estrategias relacionadas y las actividades planificadas, así
como las características, requerimientos y estado inicial del sitio.
También es importante que no sólo des seguimiento sino además mantengas
un histórico de las actividades implementadas durante el proceso SEO y
verifiques que estas siguen con el calendario que has establecido para ellas.
LAS BUENAS PRÁCTICAS DE LOS BUSCADORES &
PRÁCTICAS PENALIZABLES A EVITAR
Además de establecer objetivos que sean factibles y costo-efectivos,
acordar un marco de trabajo y comunicación con el equipo de la Web
involucrado en el proceso SEO —y de tener su colaboración—, hay que
tener en cuenta las directrices de calidad establecidas por los buscadores
para poder desarrollar el proceso SEO sin riesgos de que los resultados
terminen siendo afectados por un filtro nuevo del algoritmo o penalizados
manualmente.
Las directrices de Google se enfocan a establecer buenas prácticas a seguir
dentro de su plataforma con el objetivo de dar una mejor experiencia al
usuario y facilitar la labor del robot para encontrar la información y evitar
que las Webs hagan SPAM o intenten manipular al buscador con el objetivo
de posicionar más rápidamente o mejor sin necesariamente merecerlo.
Entre las prácticas penalizables por Google se encuentran aquellas
enfocadas en manipular sus resultados:
Figura 2.9. Directrices para Webmasters de Google, Bing & Yandex.
Fuente: allseoguidelines.com/
La manipulación de la popularidad participando en esquemas de
enlaces (crear enlaces recíprocos o con incentivos, como los
afiliados) que no representan referencias realmente naturales o
espontáneas a la Web.
La manipulación de la relevancia, haciendo cloaking —mostrando un
contenido distinto al buscador y al usuario—, incluyendo contenido
oculto en la Web o copiando el contenido de otros sitios, entre otras
prácticas.
La manipulación del rastreo de la Web a través de
redireccionamientos engañosos, enlaces internos ocultos, etc.
Puedes hacer un repaso de las directrices de calidad de los buscadores más
importantes fácilmente desde la Web allseoguidelines.com, donde se
enlazan las guías oficiales de Google, Bing & Yandex.
Por otro lado, aunque nosotros evitemos caer en prácticas penalizables en el
proceso SEO, lo cierto es que muchas veces heredamos Webs que han sido
ya penalizadas en el pasado o para las que existen varios consultores SEO
trabajando y debemos cuidar que no sean penalizadas.
Es por ello fundamental siempre hacer una revisión inicial y continúa
durante el proceso para identificar si ha existido una penalización —ya sea
manual, realizada por un revisor de Google o automática a través de un
filtro del algoritmo de búsqueda— anterior al proceso SEO que se inicia o
en cualquier momento durante el mismo.
En el caso de una penalización manual usualmente Google envía un
mensaje a través de la Google Search Console, para la que se recomienda
darse de alta en el caso que no se esté.
Con los filtros automáticos lanzados en las actualizaciones del algoritmo, se
puede verificar el histórico de los mismos —con el compendio que tiene y
actualiza Moz y que se muestra en la Figura 2.10— identificando
coincidencias de bajadas del tráfico orgánico o directamente usando
herramientas como Panguin Tool, que se muestra en la Figura 2.11 y que
muestra directamente el tráfico orgánico junto con las fechas de las
actualizaciones para que sea mucho más fácil identificar una correlación en
una pérdida de tráfico.
De igual forma, es siempre recomendado hacer una monitorización
constante de los enlaces entrantes, la calidad del contenido del sitio, etc.
para evitar penalizaciones.
En los próximos capítulos se compartirán criterios y herramientas a
considerar para dar seguimiento a las áreas y elementos que influyen en el
posicionamiento y son susceptibles de ser manipulados.
Figura 2.10. Moz Google’s Algorithm Change History.
Fuente: moz.com/google-algorithm-change
Figura 2.11. Panguin Tool.
Fuente: panguintool.barracuda.digital/
3. Cómo desarrollar un estudio
de palabras clave
“Uno no puede ver más allá de una elección que no
entiende.” — Matrix
CONCEPTO, IMPORTANCIA Y OBJETIVO DE UN
ESTUDIO DE PALABRAS CLAVE
Todo proceso SEO debe comenzar con un estudio de palabras clave, que
tiene el rol de un estudio de mercado en un proceso de posicionamiento en
buscadores, ya que te permitirá identificar:
Tu situación de posicionamiento actual: Los términos para los que ya
se está posicionando tu sitio Web.
El comportamiento de búsqueda de tu audiencia: Los términos
relevantes que más busca tu audiencia acerca de tu negocio, cuando y
desde dónde se buscan, las estacionalidades y tendencias de
búsquedas, productos o servicios que tienen más potencial para atraer
más tráfico orgánico relevante para alcanzar tus objetivos.
El perfil de tu competencia: Quién es tu competencia, cuáles son las
Webs ya posicionadas en los primeros lugares y que tienen mayor
visibilidad para los términos relevantes con mayor potencial para tu
negocio online.
La dificultad de posicionamiento en tu sector: Cuál es el nivel actual
de posicionamiento, optimización y popularidad de tu competencia
vs. el tuyo, que establecerá el nivel de competitividad que podrás usar
para priorizar los términos a atacar en el tiempo.
Lo anterior te permitirá conocer la situación de tu Web en el ecosistema de
búsqueda orgánica, y enfocar no sólo la estrategia, sino además en gran
parte los objetivos a establecer en el proceso SEO.
Por todo ello realizar un estudio de palabras clave al inicio de un proceso
SEO es indispensable —y como puede verse, va más allá de la
identificación de términos puntuales a atacar en el proceso SEO—, ya que
de otra forma cualquier acción de optimización ya sea técnica, de contenido
o popularidad podría no estar enfocada hacia los diferentes términos
relevantes usados por la audiencia en el proceso de búsqueda y que
permitirán conectar con ella en los distintos momento del proceso de
compra o conversión —la consecución de objetivo de negocio del sitio
Web, ya sea una compra, registro, solicitud, etc.—.
FACTORES A TOMAR EN CUENTA EN UN ESTUDIO DE
PALABRAS CLAVE
Ahora que ya conoces de qué trata un estudio de palabras clave, es
momento de conocer los criterios fundamentales a tomar en cuenta para su
desarrollo.
Por el lado de las palabras clave o términos y frases, los conceptos más
importantes a usar para su selección, son:
La relevancia
¿Qué tan descriptivos son los términos identificados de cara al servicio,
producto o negocio de la Web? ¿Son específicos? ¿El usuario que usa estos
términos para buscar se están refiriendo a algo que ofrece realmente la
Web?
Cuidado con elegir términos muy genéricos que no se enfocan al producto o
servicio específico y que terminan siendo demasiado competitivos por lo
que aunque te llegues a posicionar con ellos la Web no podrá ofrecer lo que
el usuario busca.
Por ejemplo, si es una Web de un “hotel en Valencia”, el término de
“Hoteles” (sin ninguna ubicación relacionada) no es relevante, ya que el
usuario que lo busca puede hacerlo para otras muchísimas ubicaciones, en
este caso los términos relacionados con hoteles o alojamiento en Valencia
serán los relevantes.
Volumen de búsqueda
¿Cuántas veces se buscan los términos cada mes? Se deseará enfocar el
proceso atacando términos que sean populares para que generen la
suficiente cantidad de búsquedas —de forma agregada entre todos ellos—
que permita alcanzar con los objetivos de tráfico y conversiones.
Un error común es sólo enfocarse a atacar pocos términos con mucho
volumen de búsqueda, ya que estos términos son más genéricos, poco
relevantes y altamente competitivos, que serán más difíciles de posicionar
en vez de atacar más términos más específicos y relevantes que serán
menos competitivos y que de forma agregada entre todos generarán la
misma o más cantidad de búsquedas.
A este principio se le llama “La Larga Cola” y puede ser visualizado más
fácilmente en la Figura 3.1.
Figura 3.1. El principio de la larga cola en la búsqueda.
Fuente: moz.com/beginners-guide-to-seo/keyword-research
Por ello es importante también tomar en cuenta la relevancia de los mismos
al negocio y contenido de la Web.
Figura 3.2. Volumen de búsqueda de términos genéricos vs. específicos.
En el siguiente apartado se mostrará qué herramientas utilizar para obtener
la información sobre el volumen de búsqueda mensual de los términos
identificados en el estudio de palabras clave.
Tipo de búsqueda
¿Son términos de búsquedas navegacionales, informacionales o
transaccionales?
No todas las búsquedas son iguales y es importante categorizar los tipos de
términos para priorizarlos según los objetivos a alcanzar e identificar las
páginas y categorías o áreas más apropiadas del sitio Web a responderlas.
Las búsquedas navegacionales son aquellas que se usan para navegar a un
sitio Web determinado. Por ejemplo, cuando un usuario busca directamente
“YouTube”.
Las búsquedas informacionales son aquellas que se usan para investigar
sobre alguna temática o información general, por ejemplo; para buscar una
dirección: “Cómo ir hacia X” o el horario de un negocio “Cuál es el horario
de Y”.
Las búsquedas transaccionales son aquellas que se usan con la intención de
realizar una acción: comprar, registrar, descargar, etc. Por ejemplo:
“Comprar ordenador portátil” o “Descargar manual de SEO”.
Las búsquedas también pueden ser relacionadas a la marca o no, lo cual
significa que incluyen la marca del negocio, producto, servicio o el nombre
del sitio en la misma.
Las búsquedas transaccionales que no son de marca son valiosas porque ya
tienen un mayor valor a nivel de negocio, al posicionarse con ella se
obtendría visibilidad y tráfico de usuarios que buscan “la conversión” y que
no conocen el negocio, por lo que serán “clientes nuevos que no llegarían y
comprarían de otra forma”. Sin embargo es importante conectar con el
usuario durante todo el ciclo de vida de la compra, desde que inicia el
proceso investigando, cuando compra, hasta cuando busque soporte o
ayuda; para maximizar su fidelización.
Figura 3.3. Ejemplo de búsqueda transaccional “Comprar Ordenador Portátil”.
Estacionalidad
¿Existen temporalidades en las búsquedas de los términos? Pueden existir
fechas o momentos recurrentes —de vez en cuando, cada año— en que el
comportamiento de búsqueda del usuario sea diferente al usual como
consecuencia a un evento repetitivo.
Por ejemplo, búsquedas que aumentan de cara a festividades como la
navidad, San Valentín, el día de la madre o fechas promocionales como el
“Black Friday”, que se dispara en Noviembre.
Figura 3.4. Estacionalidad de búsqueda de “Black Friday”.
Tendencia
¿Existen términos cuya popularidad va disminuyendo o aumentando?
Aunque dos términos tengan un mismo volumen de búsqueda en la
actualidad podría ser que su popularidad vaya aumentando o disminuyendo
en el tiempo, y que uno de los términos se busque más y tenga una
tendencia negativa y exista otro que se busque menos y tenga una tendencia
positiva en el tiempo.
Es importante identificar esto ya que se preferirá priorizar aquellos términos
que tienen una tendencia positiva y que generen más volumen de búsqueda
con el paso del tiempo.
Por ejemplo, como se puede ver en la siguiente Figura el término “pilates”
ha disminuido en volumen de búsqueda desde 2006, sin embargo, la
búsqueda de “yoga” ha aumentado.
Figura 3.5. Tendencia de búsqueda de “pilates” vs. “yoga”.
Competencia
¿Qué otras Webs se están posicionando en las primeras posiciones
actualmente para los términos identificados? Si las Webs que ya están bien
posicionadas tienen un nivel de optimización y popularidad mucho más alta
que la de nuestra Web, entonces será más difícil competir con ellas y habrá
que tomarlo en cuenta para la priorización de los términos objetivo a corto,
medio y largo plazo.
Existen herramientas como la Moz Keyword Difficulty o SEMrush que
ofrecen una métrica de nivel de dificultad para posicionarse para una
determinada palabra clave en base a la popularidad de las páginas
posicionadas, y que permite también visualizar la autoridad de las mismas.
Por ejemplo, en la siguiente imagen se puede apreciar la diferencia en nivel
de autoridad de las páginas y sitios ya posicionados para “hoteles en
Madrid” vs. “hoteles en Madrid centro”.
Desde un punto de vista del negocio y estado de contenido del sitio,
tenemos otros factores que también debemos de tomar en cuenta:
Figura 3.6. Nivel de dificultad para posicionarse para “hotels in Madrid” vs. “Hotels in Madrid
Center”.
Existencia de oferta de producto, servicio y contenido
¿Tenemos ciertos productos o servicios en mayor cantidad que otros
que cuya venta queramos potenciar? Podrían existir ciertos productos
o servicios que deseemos priorizar en su posicionamiento debido al
volumen de oferta que tengamos, por ejemplo.
Nivel de beneficio del producto, servicio y contenido
¿Tenemos ciertos productos o servicios que nos produzcan un mayor
margen de beneficio que otros? Podrían existir también productos o
servicios que queramos potenciar en su posicionamiento debido a un
mayor margen de beneficio.
Posicionamiento inicial del contenido existente para los términos
objetivo
¿Cuál es el posicionamiento inicial del contenido de nuestra Web para
las palabras clave identificadas en el estudio? ¿Ya se está
posicionando para algunas de ellas?
Se podrá querer priorizar el posicionamiento de aquellos términos
relevantes para los que el contenido de nuestra Web ya está bien
posicionado, sobre todo sobre aquellos términos que aún no tienen
ningún contenido relevante que habrá que crear— puesto que será
más fácil de alcanzar los primeros lugares.
Tomando en cuenta los criterios anteriores se elegirán, agruparán y
priorizarán a corto, medio y largo plazo los términos a atacar en el proceso
de posicionamiento, con el objetivo final de generar el suficiente tráfico
orgánico relevante a nuestro negocio que permita alcanzar el retorno de
inversión deseada en el proceso, entre otros objetivos específicos al
proyecto y situación del negocio que hayan podido ser establecidos.
FUENTES DE INFORMACIÓN PARA UN ESTUDIO DE
PALABRAS CLAVE
Una vez claros los criterios de selección es momento de identificar las
fuentes para obtener los mismos, que serán tanto herramientas propias de
Google como herramientas de terceros —ya que las que ofrece Google no
brindan la totalidad de datos—. En algunos casos una misma herramienta
nos dará datos sobre sólo unos cuantos de varios de los criterios a utilizar
para la selección.
Sin embargo, es fundamental tomar en cuenta que ninguna fuente es
absoluta, son todas referencias de información que deberán ser completadas
en la medida de lo posible con otras para tener la visión más completa y
validada de los datos.
Las herramientas que se compartirán a continuación son aquellas más
populares al momento de escribir este libro, sin embargo, estas cambian con
el tiempo —razón por la cual se listan en este apartado de forma
independiente— por lo que lo más importante es tener siempre en cuenta
los criterios a usar para la selección que podrán ser utilizados con cualquier
otra herramienta que ofrezca más información o datos más completos
conforme pase el tiempo:
Google Search Console: Términos que están posicionando
Si no se trata una Web nueva y aunque no se haya desarrollado un proceso
SEO para ella, estará ya posicionada para ciertos términos relevantes que
deben de tomarse en cuenta como punto de partida para el estudio de
palabras clave.
Estos términos pueden identificarse en el informe de “Análisis de
búsqueda” de la Google Search Console, herramienta gratuita de Google
que ofrece información fundamental sobre el estado de optimización y
posicionamiento de las Webs & apps en su buscador.
En el informe de “análisis de búsqueda” no sólo se podrán obtener las
“consultas” —es decir, las keywords o términos— para las que nuestra Web
—o app también— ya se está posicionando en los resultados de búsqueda
orgánicos de Google, sino además una media de sus posiciones, el número
de clics que se obtienen con las mismas, las impresiones y porcentaje de
clics; además de poder filtrar con qué páginas del sitio se posicionan.
La herramienta nos ofrece filtros para segmentar la información por países,
tipo de dispositivo y búsqueda —de imágenes, vídeos o Web—, además de
fechas, con un historial máximo de 3 meses.
Figura 3.7. Términos posicionados en Google Search Console.
Google Keyword Planner: Ideas de términos relacionados, rango de
volúmenes, tendencia y estacionalidad de búsqueda
Hasta ahora una de las herramientas esenciales para identificar términos
relevantes potenciales a atacar en tu proceso SEO -y ampliar los términos
que habrías identificado a través de la Google Search Console para los
cuales tu sitio Web ya se está posicionando— es el Google Keyword
Planner; herramienta de palabras clave de Google —orientada a los
usuarios de AdWords— pero que también puede ser usada para un estudio
de palabras clave enfocado al posicionamiento orgánico aunque desde hace
un tiempo ya con ciertas limitaciones al agrupar el volumen de búsqueda
para términos similares y mostrando rangos de los mismos en caso que no
se ejecuten campañas con una inversión mínima.
Sin embargo, con el Google Keyword Planner puedes obtener tanto nuevas
ideas relacionadas a términos iniciales que incluyas orientándolos
directamente a un país e idioma, además de poder obtener una referencia
del rango de su volumen de búsqueda que puede ser complementado y
validado con otras fuentes.
Para la identificación de palabras clave relevantes y relacionadas a las
temáticas de nuestra Web, es indispensable establecer los filtros adecuados
en las opciones de “targeting”: el país y el idioma; y alternativas de palabras
clave, para mostrar solo términos muy cercanos a los buscados, el rango de
fechas para los que se desea obtener el volumen de búsqueda (que por
defecto serán los últimos 12 meses), entre otros.
Figura 3.8. Términos relacionados con su volumen de búsqueda y tendencia en Google Keyword
Planner.
Se recomienda por ello, realizar el estudio incluyendo grupos de términos
segmentándolos por los tipos o categorías de productos o servicios del sitio,
para así obtener sugerencias relacionadas a cada uno de ellos.
De igual forma, es fundamental identificar la tendencia y estacionalidad de
las búsquedas; lo cual se muestra para los términos buscados.
Así mismo, se puede segmentar y obtener el porcentaje del volumen de
búsqueda por tipo de dispositivo (móvil y escritorio) con el filtro ubicado
en el gráfico principal que muestra la tendencia de búsqueda para todas las
palabras clave en el rango de tiempo elegido.
Esto permitirá identificar la importancia de la búsqueda móvil para nuestro
negocio y aquellas categorías de términos que se buscan desde dispositivos
móviles.
Cabe señalar que, aunque esta herramienta da una referencia de nivel de
competencia, la misma está enfocada a la competencia en AdWords y no
para la búsqueda orgánica; por lo que es una métrica que, aunque pudiera
ser usada en un proceso que se haga en conjunto con una campaña de
AdWords; lo cierto es que no está orientada ni da una referencia específica
de cara a la dificultad para posicionar en la búsqueda orgánica.
Google Trends: Tendencia y estacionalidad de búsqueda
Otra herramienta de Google a través de la cual se pueden obtener las
tendencias y estacionalidades de términos de búsquedas en el tiempo, y en
este caso también compararlas, es Google Trends, con la cual también se
puede visualizar y filtrar por ubicación y categorías, además de rango de
tiempo.
Figura 3.9. Tendencia de términos en Google Trends.
Keywordtool.io: Ideas de términos relacionados
Los términos relacionados a la búsqueda que son sugeridos por Google
pueden ser obtenidos con Keywordtool.io, que que ofrece las sugerencias
alfabéticamente además de las preguntas que se realizan alrededor de estos
términos o su volumen de búsqueda en su versión “pro”. Ofrece también
palabras clave de otras fuentes de búsqueda, como YouTube, Bing y la App
Store.
Figura 3.10. Ideas de términos relacionados en KeywordTool.io.
SEMRush: Ideas de términos relacionados, volumen de búsqueda,
tendencia, estacionalidad de búsqueda y competencia
Una de las fuentes más completas de palabras clave es SEMrush, ya que no
sólo genera términos relacionados a la palabra clave que especifiques, sino
además frases que la incluyan, la tendencia y estacionalidad en el tiempo,
además de poder listar los términos para los que cualquier Web ya está
posicionada, por lo que podrás obtener así también una referencia adicional
tomando en cuenta los términos para los cuales la competencia está
atacando.
Figura 3.11. Ideas de términos relacionados, volumen de búsqueda y estacionalidad de búsqueda.
SEMrush permite también verificar un porcentaje de dificultad para
posicionar las palabras claves, tomando en cuenta las Webs que actualmente
posicionan para ellas.
Figura 3.12. Nivel de competencia de términos en búsqueda orgánica.
Kwfinder: Ideas de términos relacionados, volumen de búsqueda,
tendencia, estacionalidad de búsqueda y competencia
Otra fuente de términos relacionados es KWfinder, que además permite
obtener el volumen de búsqueda, la tendencia, páginas posicionadas con
métricas de dificultad y un indicador de la dificultad para posicionar los
términos sugeridos.
Figura 3.13. Términos relacionados, volumen de búsqueda, estacionalidad de búsqueda,
competencia.
Moz Keyword Explorer & Keyword Difficulty: Términos
relacionados, rangos de volumen de búsqueda y competencia
Para obtener otra referencia del nivel de dificultad de las palabras clave que
desees puedes utilizar la herramienta de Moz Keyword Difficulty, que toma
en cuenta el nivel de autoridad dado por los enlaces tanto a nivel de página
como de dominios posicionados en las primeras posiciones para ellos. Así
mismo, la herramienta de Keyword Explorer que Moz ha lanzado hace
algunos meses incluye el volumen de búsqueda, la dificultad, oportunidad y
potencial de cada palabra así como términos relacionados.
Figura 3.14. Nivel de competencia para palabras clave.
EL PROCESO DE SELECCIÓN DE PALABRAS CLAVE
Una vez vistos los criterios y algunas de las fuentes principales de datos a
usar para el estudio de palabras clave, es momento de conocer los pasos a
seguir para el proceso de selección de las mismas.
Lo fundamental es no perder de vista el objetivo final, que es identificar los
términos o consultas que se atacarán en el proceso de posicionamiento para
maximizar la visibilidad del sitio Web en los resultados de búsqueda.
Por ello, como puede apreciarse en la la siguiente figura, una vez obtenidos
la mayor cantidad de términos relevantes relacionados a nuestro negocio o
contenido Web a los que se les aplicarán los criterios de selección de
palabras clave ya especificados , es indispensable también conocer los
requerimientos tanto a nivel de optimización de contenido como de
popularidad para poder posicionar por ellos y maximizar la visibilidad que
se obtendrá con los mismos, para así poder priorizarlos a corto, medio y
largo plazo, de forma que nuestros esfuerzos en el proceso de
posicionamiento sean lo más efectivos posibles.
Hay que recordar que el objetivo de visibilidad puede lograrse de dos
formas:
Obteniendo una mejor posición en los resultados.
Aprovechando las funcionalidades del buscador que muestran más
información del sitio generando más visibilidad, como los rich
snippets, integración con resultados verticales de Imágenes, Vídeos o
Mapas, entre otros.
Debido a esto no hay que perder de vista el tipo de resultados que el
buscador muestra al buscar los términos que estamos valorando, para así
identificar oportunidades de maximizar la visibilidad de nuestro contenido.
Figura 3.15. Criterios y objetivos del proceso de selección de palabras clave.
A continuación, una descripción paso a paso del proceso de selección de
palabras clave:
Obtén términos relevantes con tus propios datos y los de tu
competencia
Para comenzar lo más fácil es obtener un listado inicial de términos
relevantes a nuestra Web usando nuestros propios datos históricos y los de
la competencia: Las palabras clave para las que ya estamos posicionados
con el Google Search Console y aquellas para las que los sitios Webs
relacionados al nuestro ya están atacando con SEMrush, que genera listados
de términos por sitios.
Figura 3.16. Pasos del proceso de selección de palabras clave para el proceso SEO.
Segmenta los términos obtenidos en grupos categorizados
Una vez que ya tienes las primeras “ideas” de términos puedes comenzar a
categorizarlos usando como criterio tus propias categorías o áreas de
negocio, productos o servicios.
Por ejemplo, si tienes una Web de propiedades global, puedes comenzar a
categorizar a distinto nivel de granularidad: Por tipo de transacción —
alquiler o venta—, tipo de propiedad —apartamento o casa—, localización
—en qué país, ciudad y barrio—, etc.
De esta forma mantendrás los términos identificados agrupados por el tipo
de producto, servicio o contenido al que se refieren, lo cual hará más fácil
identificar más términos relacionados para cada grupo, además de la tarea
posterior de identificar qué páginas de la Web deben posicionarse para los
términos identificados.
Expande con términos relacionados y más específicos
Para cada una de las categorías de términos que hayas identificado genera
más ideas de palabras clave relacionadas:
Expandiendo a más términos relacionados usando SEMrush y
KWFinder. Por ejemplo, si ya tienes términos como “Hoteles en
Centro de Madrid” un término relacionado sería “Hoteles con encanto
en Madrid” u “Hoteles baratos en Madrid”.
Profundizando con términos más específicos usando
KeywordTool.io. Por ejemplo, si ya tienes “Hoteles en Centro de
Madrid” un término más específico sería “Hoteles baratos en Centro
de Madrid” u “Hoteles con encanto en Centro de Madrid”.
Filtra términos no relevantes o duplicaciones
Es importante que antes de comenzar a identificar los criterios de selección
para los distintos términos identificados te quedes solo con aquellos que son
relevantes de cara a tu negocio, producto, servicio o contenido para que así
no inviertas tu esfuerzo en identificar datos para términos que de todas
formas no tomarías en cuenta en el proceso posterior.
¿Cómo identificar si un término es relevante? La herramienta para hacerlo
es tu propio conocimiento del negocio: ¿El término describe un producto o
servicio o contenido que ofreces o deseas ofrecer en la Web? Recuerda que
no debe ser muy genérico: Si sólo tienes hoteles en Madrid, entonces los
términos “Hoteles baratos” u “hoteles en Europa” u “alojamiento con
encanto” son demasiado genéricos porque no especifican la ubicación de
donde ofreces tu producto, que es sólo una. En el caso que tuvieras una
cadena de hoteles en todo el mundo, entonces sí, estos términos genéricos
serían relevantes, pero si sólo lo tienes en ciertas localidades, entonces es
fundamental que te enfoques a ellas.
Toma también en cuenta que encontrarás términos que están mal escritos,
sin preposiciones, sin acentos: Esto no significa que son términos diferentes
o peor aún: que debes de crear contenido para enfocarte a ellos. Las
preposiciones o artículos son “stop words” o “palabras vacías” que no
tienen un significado específico de forma independiente y por lo cual no
deben ser tomadas en cuenta en tu proceso de selección como un criterio.
Por ejemplo, “hoteles madrid” y “hoteles en madrid” son el mismo término
y no hace falta atacar cada uno de forma independiente, así que tómalo en
cuenta en el proceso de selección de palabras clave.
Por otro lado, frases sinónimas o que se refieran a lo mismo como “learn
English” o “study English” si deben de tomarse en cuenta de forma
independiente, ya que, aunque se vayan a atacar con el mismo contenido —
ya que se refieren a lo mismo por lo cual no se tendría que crear páginas
específicas para cada una de ellas— es importante verificar cuál de ellas se
usa más, para así balancear su uso de forma consistente en la página a crear
u optimizar.
Obtén los criterios para priorizar los términos: volumen de
búsqueda, tendencia, estacionalidad, dificultad, posicionamiento
actual
Una vez que ya has filtrado aquellos términos no relevantes o duplicados es
momento de ampliar por última vez en un dado caso que haya quedado
algún término adicional por descubrir, filtrar y obtener el volumen de
búsqueda y posteriormente el resto de criterios a usar para priorizarlos en el
proceso de posicionamiento.
La última ampliación de términos puede hacerse con SEMrush con la cual
también se obtendrá el volumen de búsqueda, la estacionalidad y tendencia
de los términos. Aquellos términos que no tengan ningún volumen de
búsqueda pueden ser filtrados directamente.
Para los términos que queden se identificará su nivel de dificultad a
posicionar dada por la competencia usando Moz Keyword Difficulty o
SEMrush (verificando ahí también el tipo de resultado que se genera para
aquellos términos con más volumen).
Para terminar, podrá obtenerse el posicionamiento actual para los términos
deseados usando SEMrush —que tiene también funcionalidades para hacer
monitorización de palabras clave— SEOmonitor o Wincher, herramientas
de monitorización de posicionamiento orgánico.
Valoración, priorización y selección de palabras clave para el
proceso SEO
Los últimos criterios a tomar en cuenta deben de ser dados de manera
manual a través de una revisión en la cual asignaras la tipología
(informacionales, transaccionales o navegacionales) y la categoría de
negocio o contenido a la cual se refiere (en caso que aún no lo hayas
hecho).
Con todos los criterios ahora ya podrás identificar aquellas que tengan un
balance de los siguientes criterios:
Mayor volumen de búsqueda o suficiente volumen de búsqueda para
alcanzar los objetivos de tráfico orgánico de forma agregada.
Nivel de competencia baja o media a priorizar a corto y medio plazo,
dejando los términos más competitivos a largo plazo.
Un balance entre distintos tipos de términos que se puedan atacar en
diferentes etapas del proceso de compra del usuario y para las
diferentes categorías y áreas de negocio o contenido sitio que se
deseen potenciar.
Priorizando aquellas para las que ya se está posicionando que serán
más fáciles de llevar a las primeras posiciones vs. las palabras clave
para las que no posicionas del todo y tienes que crear contenido.
Usando estos criterios podrás elaborar una matriz priorizada de palabras
clave a atacar como la que se puede apreciar en la Figura 3.17 y asignar un
objetivo a corto, medio o largo plazo —o eliminarlas del primer proceso de
posicionamiento—.
Figura 3.17. Matriz de palabras clave.
Recuerda hacer una suma del volumen de búsqueda agregado de todos los
términos a atacar en los distintos plazos para verificar el volumen de tráfico
orgánico que podrías obtener con el mismo —usando la calculadora de ROI
SEO 9 —.
¿Qué tiempos usar para los diferentes tipos de plazo? Dependerá de si se
trata de una Web de nueva creación o ya establecida y del tipo de
competencia que se tenga, pero toma en cuenta que lo usual es que los
primeros resultados —es decir, aquellos a corto plazo— se comiencen a ver
realmente alrededor de los 6 meses una vez comenzado el proceso y a
realizar las mejoras a nivel de optimización y popularidad.
Es mejor dejar al menos 6 meses para los resultados a corto plazo, 8-10
meses para los de medio plazo y 12 meses como mínimo para los resultados
a largo plazo, de esta forma las expectativas de resultados se establecen en
relación a la prioridad de lo que se ha establecido en el estudio de palabras
clave y los esfuerzos de optimización en el proceso SEO deben ir de la
mano.
Con esta información ya tienes los objetivos y ahora podrás establecer y
priorizar las distintas acciones de optimización y la estrategia SEO a seguir
en el proceso.
9 aleydasolis.com/en/international-seo-tools/roi-calculator/
4. Optimización técnica para
establecer una Web amigable a
los buscadores
“Yo sólo puedo mostrarte la puerta. Tú eres quien debe
atravesarla.” — Matrix
CONCEPTO, IMPORTANCIA Y OBJETIVO DE LA
OPTIMIZACIÓN TÉCNICA
Hay algo fundamental en el SEO que es crítico que nunca perdamos de
vista y es su base en la Web, por lo que se debe de garantizar la
rastreabilidad e indexabilidad de su contenido a través de su optimización
técnica, priorizando aspectos como:
Su estructura y organización de la arquitectura Web.
El enlazado interno de sus páginas.
Su velocidad de carga.
Su configuración móvil.
La rastreabilidad e indexabilidad es por lo tanto básica en el SEO ya que
aunque el contenido sea muy relevante o popular, de poco valdrá si el
buscador no puede acceder al mismo para procesarlo.
Esto deberá verificarse a través de una auditoría SEO técnica para
identificar qué está perjudicando al buscador para que no pueda acceder al
contenido de todas las páginas del sitio con las que se desee posicionar, en
base a la cual se desarrollarán las recomendaciones SEO técnicas relevantes
para que sean corregidas.
Figura 4.1. La base de la optimización técnica en el SEO.
DESARROLLANDO UNA AUDITORÍA SEO TÉCNICA
Antes de hacer un repaso a todos aquellos elementos fundamentales que
deben de ser tomados en cuenta para una auditoría SEO técnica, es clave
comprender que todas estas validaciones que se harán deben de perseguir el
objetivo final de mejorar el posicionamiento orgánico del sitio Web, por lo
cual, una vez que sean analizadas deben de ser priorizadas en base al nivel
de optimización de su estado y la importancia relativa que tiene en el
proceso SEO.
Por ejemplo, si se establece que la Web no está optimizada para ser
amigable a la búsqueda móvil —por lo cual su nivel de optimización es
bajo—, y se encuentra en un sector donde un alto porcentaje de las
búsquedas provienen desde dispositivos móviles, entonces tendrá que
priorizar la recomendación relacionada a configurar la Web para que sea
amigable a la búsqueda móvil.
De esta misma forma se deberán priorizar todos aquellos aspectos que serán
analizados, no sólo tomando en cuenta su nivel de optimización sino
también la importancia relativa que tiene esa optimización para alcanzar los
objetivos en el proceso SEO específico de la Web.
Por esto es importante que una que se haya realizado la auditoría SEO se
haga un listado resumen de todos los aspectos que se hayan identificado —
tanto técnicos, como de contenido y relacionados a la popularidad con la
creación de enlaces— y se le asigne en base a su nivel de optimización e
importancia, un nivel de prioridad en el proceso SEO; como se puede ver en
la Figura 4.2.
Figura 4.2. Resumen y priorización de recomendaciones SEO técnicas.
De igual forma, si se deben de presentar las recomendaciones SEO
resultantes a la auditoría para que sean implementadas por los distintos
equipos y áreas involucradas, es recomendable desarrollar un documento en
el que no sólo se prioricen, sino en el que además se explique la
importancia de cada uno de los aspectos identificados y recomendados, y se
muestren los distintos escenarios que se han encontrado y que deben de ser
solventados, ofreciendo ejemplos de cómo hacerlo en cada caso, tomando
como referencia una organización como la que se muestra en la Figura 4.3.
Figura 4.3. Organización de Documento de Recomendaciones SEO.
Esto es importante para así facilitar la accionabilidad de las
recomendaciones SEO y la comprensión de las mismas por parte de todas
las áreas involucradas en su ejecución.
OPTIMIZANDO LA RASTREABILIDAD &
INDEXABILIDAD DE TU WEB
La Web Rastreable: ¿Por qué es importante?
Los objetivos que persigue la optimización de la rastreabilidad del sitio
Web en un proceso SEO son:
Facilitar el rastreo por parte del buscador del contenido más
importante del sitio de cara al posicionamiento para que pueda ser
indexado de forma efectiva.
Evitar el rastreo de contenido que no se desea indexar ni posicionar
de la Web, para no “malgastar” el esfuerzo de los rastreadores.
Garantizar que se cumplen las directrices de Google a nivel de
rastreo, verificando que se ofrece el mismo contenido tanto al usuario
como al robot del buscador.
¿Y cómo rastrea el buscador una Web? Cada página de un sitio Web puede
visualizarse como un “nodo” de una red que se conectan a través de los
enlaces existentes entre ellos. Estos enlaces son utilizados por los robots
rastreadores de los buscadores para “navegar” entre las páginas y acceder a
las mismas, simulando ser un usuario. De igual forma, al enlazar de una
página a otra también se le refiere “popularidad” de las páginas enlazantes,
que son tomadas en cuenta por los buscadores para el posicionamiento de
las mismas.
Por ejemplo, en la Figura 4.4 se puede ver un gráfico que representa la
estructura de enlazado de un sitio Web, en la que la Home enlaza hacia la
página de las Categorías A, B y C. A su vez la página de la Categoría A,
enlaza a las páginas de las subcategorías AA y AB.
Figura 4.4. Estructura de enlaces de una Web básica.
Es por eso que la arquitectura Web o la organización de la información del
sitio, es fundamental en la optimización técnica del sitio, ya que una
estructura de páginas enlazadas de forma jerárquica y organizada de forma
temáticamente relevante es esencial para un correcto rastreo de la Web.
Por ejemplo, si tenemos una Web con distintas líneas de productos o tipos
de servicios, tendremos una estructura de páginas organizadas y enlazas en
base a su temática pero además de forma jerárquica, como se puede ver en
la Figura 4.5, en el que vemos como desde la página de electrónica se
enlaza a la página principal de la categoría de PCs, móviles y tablets, que se
enlazan entre ellas mismas (son categorías “hermanas”) y desde las cuales
enlazan a sus páginas de productos relevantes, la página de PCs enlaza a la
página de PC A, B, C, etc.
Figura 4.5. Ejemplo de Estructura de una Web con distintas temáticas.
Figura 4.6. Estadísticas de Rastreo en el Google Search Console.
Google nos ofrece información sobre las estadísticas de rastreo de nuestra
Web a nivel general a través del informe “Estadísticas de Rastreo” en el
Google Search Console —que es una de las herramientas más importantes
de cara a una auditoría SEO técnica y recomendable que registres tu Web en
ella desde un inicio, ya que además es gratuita y da información directa por
parte de Google— como se puede ver en la Figura 4.6.
La Web Indexable: ¿Por qué es importante?
Sin embargo, estas estadísticas son generales y nos dan información a nivel
de sitio y no específico por página. Además, más allá de poder acceder a las
páginas de nuestra Web, debemos verificar si el contenido de las mismas es
accedido e indexado de forma correcta por Google, es decir, si Google lo
reconoce para poder procesarlo y así poder posicionarlo cuando se realicen
búsquedas relevantes.
Para poder verificar cómo accede el buscador al contenido de una página en
específico podemos hacer uso de la opción de “Explorar como Google” que
se encuentra en la Google Search Console, que nos permite elegir el tipo de
robot de Google, la página deseada de nuestra Web y visualizar el contenido
que ve el buscador para la misma, qué elementos se bloquean, etc.
Aquí uno de los aspectos más importantes a verificar además de que el
robot de Google accede de forma efectiva a toda la información incluida en
ella, es que se está mostrando el mismo contenido tanto al usuario como al
buscador, ya que de lo contrario se estaría haciendo “cloaking” que es una
práctica que entre otras está penalizada por Google en sus directrices para
Webmasters 10 .
Figura 4.7. Funcionalidad de “Explorar como Google” en la Google Search Console.
Por otro lado, puedes verificar las páginas que el buscador “ha guardado” (o
indexado) de tu sitio o de cualquier otra Web, buscando con el operador
“site:tusitio.com” en Google 11 , como se puede ver en la Figura 4.8, así
obtendrás no sólo las páginas indexadas (o al menos una referencia de las
mismas), sino que además al pinchar en la opción “En caché” debajo de
cada página en los resultados podrás ver cómo el buscador ha guardado la
información de esa página de tu Web (además de la última fecha en la que
la ha indexado).
Puedes además elegir la opción de “Vista de sólo texto” para eliminar los
estilos e imágenes, así como el contenido generado por scripts (que Google
podría en algunos casos no procesar) para así verificar el contenido en texto
y enlaces fundamentales que el robot identifica.
Figura 4.8. Contenido cacheado de una página en Google.
¿Cómo valorar y optimizar la rastreabilidad de una Web?
Además del contenido que el robot del buscador toma en cuenta para
posicionar cada página, es importante verificar los enlaces que se muestran
y que se “siguen” por parte de los robots de los buscadores, ya que son los
que permitirán que las páginas internas sean rastreables.
Un ejemplo claro de esto es el que se da en la Figura 4.9 en la que se puede
ver marcado los elementos de navegación que enlazan a las páginas internas
desde la home de Zalando:
Figura 4.9. Visualización del enlazado en la Home de Zalando.
El menú superior principal hacia las categorías principales: Mujer,
hombre, niños, inspiración, ropa, zapatos, deportes, etc.
Accesos directos hacia las páginas de los productos más vendidos.
Accesos directos hacia las páginas internas de marcas más
importantes.
Navegación inferior hacia el resto de áreas principales.
Estos enlaces pueden verse reflejados en la versión del “caché” en texto de
Google para esta página y cómo de esta forma Zalando ofrece tanto a los
usuarios como a los robots de los buscadores formas de comenzar a acceder
al contenido de su sitio forma jerárquica y organizada por temas:
Si nos vamos a la categoría de Zapatillas de Mujeres, podemos ver como
ocurre algo similar, pero a un nivel de profundidad adicional:
Figura 4.10. Enlazado en la categoría de Zapatillas de Mujeres de Zalando.
Se enlaza siempre a las categorías principales y la home desde el
menú principal y la miga de pan (1).
Se enlaza a las subcategorías desde el menú de navegación de la
izquierda (2).
Se enlaza hacia las páginas de mayor granularidad, las de productos
(3).
Así mismo a un nivel aún mayor de granularidad, las páginas de productos
de la Figura 4.11:
Figura 4.11. Enlazado en una página de producto de Zalando.
Se enlaza siempre desde el menú superior principal hacia la home y
categorías principales.
Hacia las páginas “hermanas” del mismo nivel y relacionados
temáticamente con los enlaces de las sugerencias a productos
similares.
Hacia las categorías adicionales principales con la navegación
inferior.
Otras razones para enlazar de forma jerárquica y priorizando los enlaces
hacia las páginas principales y relevantes, evitando la duplicación y el
exceso de enlaces por página es que:
Google sólo tomará en cuenta el primer enlace que encuentre desde
una página A hacia una página B. Aunque enlacemos 2, 3, 4, o más
veces desde una misma página hacia otra, no por eso tendrá más valor
o Google tomará más en cuenta el enlace.
Después de cierto número de enlaces por página, Google dejará de
seguirlos si se encuentra un exceso de los mismos, es por ello que se
sugiere se razonable con el número de URLs a enlazar por página, ya
que si no corremos el riesgo que no todos se rastreen de forma
efectiva.
Por otro lado, no todos los enlaces son seguidos por los buscadores, no sólo
porque se implementen con scripts que pueden no ser rastreables (aunque
Google ha hecho avances importantes con la ejecución del JavaScript 12 , es
mejor siempre asegurar el rastreo de los enlaces implementándolas en el
HTML con etiquetas <a href>, y en el caso de tener que usar JavaScript al
no tener opción, siempre seguir con las buenas prácticas de “mejora
progresiva” del mismo para asegurar su accesibilidad), sino porque se
puede hacer uso del atributo “rel=”nofollow” que se incluye a la etiqueta <a
href> al especificar un enlace cuando no se desee que este sea tomado en
cuenta por los buscadores, por lo que Google no seguirá ni tomará en
cuenta el enlace.
Figura 4.12. Uso de Rel=”Nofollow” en enlazado interno.
Se incluye el atributo “rel=nofollow” al enlazar a páginas externas para
evitar pasar la popularidad de nuestras páginas hacia las mismas (por
ejemplo, como se hace en la Figura 4.12 desde la página de inicio de El
Mundo hacia “DMedicina”), sin embargo, también es una técnica usual
cuando no se desea pasar popularidad a páginas con las que no se tiene el
objetivo de posicionar, por ejemplo, las condiciones de uso o políticas de
privacidad de una Web.
Cabe señalar, que algunas veces se hace un uso incorrecto de la misma y se
incluye el atributo a enlaces que van hacia páginas internas que sí deben de
ser rastreadas, indexadas y posicionadas, por lo cual deben ser seguidas.
Este análisis se puede automatizar para verificar en buena parte si los robots
de los buscadores encuentran todas las páginas internas de nuestro sitio de
forma masiva, cómo lo hacen, la información que encuentran, etc.
simulando su comportamiento a través de herramientas como Screaming
Frog, OnPage.org, DeepCrawl o Botify; que son rastreadores SEO.
Cualquiera de estas herramientas, así como otros rastreadores —que se
pueden ejecutar tanto en nuestro ordenador como en la nube—, permiten
elegir el rastreador que deseamos simular para analizar la Web.
Figura 4.13. Rastreadores de Google.
Por ejemplo, en la figura anterior se listan los rastreadores de Google 13 , que
se encargan de “descubrir” los distintos tipos de contenido de la Web:
imágenes, vídeos, noticias, para móvil, etc. y que debemos garantizar que
puedan acceder a nuestra información de forma efectiva.
Como se puede ver en la siguiente imagen en los rastreadores SEO se
permite elegir con qué robot se rastreará el sitio Web que se desea analizar,
simulando de esta forma el comportamiento que tendría el buscador en cada
caso.
Figura 4.14. Opciones de rastreadores de Screaming Frog.
Por practicidad, lo recomendable al hacer una auditoría SEO es rastrear la
Web eligiendo los robots principales del buscador para el que se desea
posicionar, de manera usual el robot de Google tradicional y el orientado
para descubrir contenido de smartphones.
Si además se tienen muchas imágenes, vídeos o contenido de noticias con el
que deseamos posicionar de forma prioritaria, también se recomienda
rastrear con los robots dedicados a descubrir este tipo de contenido.
Al elegir el rastreador deseado y comenzar con el rastreo se podrá visualizar
cómo el buscador accede a las distintas páginas del sitio, así como los
“saltos” (o niveles de “clics”) que se requieren hacer para poder acceder a
las mismas. Por ejemplo, en la Figura 4.15 se puede ver cómo en Screaming
Frog se puede elegir cualquier URL y verificar cómo el robot ha accedido a
la misma, obteniendo la información de las páginas que la enlazan.
Figura 4.15. Comportamiento de rastreo en Screaming Frog.
Además de poder identificar esta información a nivel de página, puede
visualizarse a qué nivel se encuentra el mayor porcentaje de las páginas, si a
uno, dos o tres niveles de “profundidad” desde donde se ha comenzado a
rastrear, es decir, que si se comienza a rastrear desde la portada del sitio y el
nivel de profundidad es de 3, significa que se deben dar 3 saltos (o clics en
3 páginas) para llegar hasta ese contenido desde la página de inicio.
Mientras más profundidad tenga un contenido más esfuerzo se requerirá
para encontrarlo, por lo que es crítico entonces garantizar que aquellas
páginas de mayor importancia desde un punto de vista de usuario,
conversión y posicionamiento, se encuentren enlazadas de forma prioritaria
para que sean fácilmente accesibles.
Deepcrawl ofrece también una visualización de los niveles de profundidad
de las páginas de una Web, en la que como se puede ver en la Figura 4.16,
aunque el mayor porcentaje del contenido se encuentra en un tercer, cuarto
y quinto nivel de profundidad, existe una larga “cola” de páginas que tienen
un nivel muy profundo, debido a paginaciones existentes en el mismo.
Un informe similar también lo da OnPage.org, en el que como se puede ver
en la Figura 4.17 se muestran los niveles de clics que se requieren para
acceder a las páginas del sitio, mostrando en verde aquellas que se
encuentran hasta en 3 clics de distancia desde la portada, en amarillo las
que están de 4 a 6 clics y en rojo aquellas que requieren más de 7 clics
desde la portada para poder ser accedidas.
Figura 4.16. Niveles de Profundidad de Rastreo de DeepCrawl.
Figura 4.17. Niveles de clics de una Web rastreada en OnPage.org.
Aunque en Webs muy grandes existirá siempre contenido que esté más
profundo, lo que se debe entonces de garantizar es que:
1. Las páginas más importantes se enlacen de forma prioritaria, siempre
manteniendo una lógica jerárquica y con relevancia temática.
2. Se enlacen a aquellas páginas de categorías o subcategorías que
actúen como “hubs” de enlazado hacia otras muchas páginas internas
relevantes.
Una forma alternativa de “informar” a los buscadores de la existencia de
páginas en nuestra Web es a través de los Sitemaps XML —como el que se
puede ver en la Figura 4.18—, archivos en formato XML en los que podrás
especificar no sólo la existencia de las páginas de tu sitio, sino además de
otro contenido como vídeos e imágenes, para el que se podrá especificar
información adicional, como la fecha de última actualización, la frecuencia
de la misma o su prioridad, como se puede ver en el documento oficial de
documentación de Google 14 .
Figura 4.18. Ejemplo de Archivo XML Sitemap.
Los XML Sitemaps son recomendables de usar al lanzar una nueva Web, si
se gestiona una Web muy grande o con un enlazado interno que aún no ha
sido optimizado.
Estos pueden ser generados a través de múltiples herramientas, el propio
CMS que se esté utilizando o de los SEO crawlers como Screaming Frog,
entre otras 15 que ofrecen esta funcionalidad.
Se puede (y debería siempre) además informar sobre la existencia de los
XML Sitemaps a través del Google Search Console, que ofrece además una
funcionalidad para probar las mismas e identificar errores, como se puede
ver en la Figura 4.19.
Por otro lado, también se puede informar acerca de la existencia de archivos
XML sitemaps en la Web a través del Robots.txt, incluyendo una directriz
llamada “sitemap:” añadiendo la dirección donde se pueden encontrar los
archivos sitemap, como se puede ver en la Figura 4.20; aunque la
funcionalidad del robots.txt va mucho más allá que informar acerca de los
mismos.
Figura 4.19. Gestión de XML Sitemaps en el Google Search Console.
Figura 4.20. Ejemplo de Archivo Robots.txt.
El robots.txt es un archivo que se ubica en el directorio de nivel superior del
host y a través del cual se pueden brindar instrucciones hacia los robots que
intentan acceder al sitio, para que accedan o no al contenido del mismo, a
distinto nivel de granularidad.
Es importante aclarar que, aunque los robots de los buscadores siguen las
directrices establecidas en el robots.txt, este puede ser también ignorado. De
igual forma, este archivo es visible de cara a cualquier usuario, por lo cual,
no se debería confiar en él para bloquear el acceso a contenido “crítico”,
privado o que puede generar una vulnerabilidad al sitio.
El robots.txt como puede verse en el ejemplo anterior, se puede usar para
situaciones específicas, en las que no es posible evitar la generación de
contenido de áreas sensible de ser rastreado por defecto (directorios,
subdominios) o páginas concretas del sitio, como el de los resultados de la
búsqueda interna de las Webs que genera páginas dinámicas con contenido
no original y que duplica al que ya puede ser encontrado en la estructura
estática de la Web, usando la directriz “disallow:”.
Es por ello que, al comenzar con una auditoría técnica SEO, una de las
validaciones fundamentales es la verificación de la configuración del
robots.txt y rastrear el sitio tomándolo en cuenta para identificar qué
contenido está siendo bloqueado y si este bloqueo se está haciendo de
forma incorrecta o no, ya sea porque es contenido que sí debería de ser
rastreable o porque podría evitarse su rastreo de otra forma más eficiente.
Google nos informa del número de páginas que identifica como bloqueadas,
así como de los recursos bloqueados que estén afectando el procesamiento
del contenido del sitio a través del Google Search Console como se puede
ver en la Figura 4.21.
Figura 4.21. Contenido Bloqueado en Google Search Console.
De igual forma, ofrece un probador del robots.txt a través del cual podemos
verificar si se está bloqueando cualquier página o archivo del sitio que
especifiquemos.
Por otro lado, la verificación de qué se está bloqueando a través del
robots.txt también puede realizarse a través de los rastreadores SEO (que
permiten establecer si se desea ignorarlo, seguir las reglas establecidas en el
robots.txt y visualizar las páginas bloqueadas, o usar otro robots.txt, entre
otras opciones), como se puede ver en la Figura 4.23 de Screaming Frog
donde se muestra un filtro de “páginas bloqueadas por el robots.txt” y qué
regla del archivo está bloqueando cada una, desde donde se están enlazando
(para así poder optimizar los enlaces modificándolos en caso de ser
necesario).
Figura 4.22. Probador de Robots.txt.
Figura 4.23. Identificando contenido bloqueado por el Robots.txt.
Además de un problema en la configuración del robots.txt existen otros que
evitan el rastreo efectivo de las páginas internas del sitio que deben de
verificarse de forma prioritaria, por ejemplo, el rastreo de páginas o
recursos con un estado HTTP distinto a 200 — OK que debe ser utilizado
para mostrar el contenido a indexar y que es el utilizado para las peticiones
correctas, verificando otros tipos de estados HTTP que hacen que las
páginas no sean indexables:
Códigos HTTP 3XX a usarse en casos de redirecciones de las URLs -
al ser migradas a otra ubicación o su dirección modificada— (301
para las redirecciones permanentes, 302 para redirecciones
temporales).
Códigos HTTP 4XX relacionados a errores del cliente que no permite
el procesamiento de las mismas (403 Forbidden, 404 No Encontrado,
410 Gone, etc.).
Códigos HTTP 5XX relacionados a errores del servidor (500 Internal
Server Error, 504 Gateway Timeout, etc.).
Figura 4.24. Códigos de estado HTTP de las páginas y recursos del sitio.
Además de identificar este tipo de páginas con errores o redirigidas o con
acceso denegado a través de nuestros propios rastreos es indispensable
siempre verificar lo que ha visto el buscador al rastrear nuestra Web
analizando los errores de rastreo en Google Search Console o mejor aún,
analizando los logs del servidor Web con los accesos que ha tenido el sitio
(lo cual puede hacerse con herramientas como el analizador de Logs de
Screaming Frog, OnCrawl o Botify).
Figura 4.25. Errores de Rastreos en Google Search Console.
Existen por supuesto casos en los que las páginas deben ser redirigidas o
han sido eliminadas —por ejemplo, durante una migración Web o rediseño
en el que se realicen cambios estructurales—, pero estos cambios deben de
ser configurados para evitar su rastreo actualizando los enlaces internos o
referencias desde los XML sitemaps para que comiencen a ir hacia las
nuevas direcciones de las mismas y que el buscador no “invierta” tiempo en
rastrear contenido que de todas formas no será indexado ni posicionado.
Este en particular es uno de los problemas más comunes a encontrar a nivel
de rastreo durante una auditoría de SEO: Sitios Web cuyo enlazado interno
no ha sido actualizado posterior a un rediseño o cambios estructurales
durante mucho tiempo y que sigue apuntando a sus URLs antiguas que bien
están siendo redirigidas lo cual dificulta acceder al contenido indexable o
apuntan a páginas de errores que no son indexables.
Figura 4.26. Mejora del comportamiento del rastreo de una Web.
En la Figura 4.26 se puede apreciar la evolución del rastreo de una Web que
al inicio del proceso mostraba en gran medida páginas redireccionadas con
302s o meta refresh.
Como comentaba, las redirecciones deben ser implementadas al hacer una
modificación en las direcciones de las páginas, para llevar de la antigua
URL a la nueva, sin embargo, existen diferentes tipos de redirecciones que
deben ser usadas para situaciones diferentes:
301 Redirección Permanente: A usar por defecto cuando se desee
“mover” el contenido de una URL a otra de forma permanente, desea
dejarse de indexar la URL antigua y comenzar a indexar y posicionar
la URL nueva, enviando la popularidad de la URL antigua a la nueva
también.
El escenario más común para usarla es en rediseños, reorganizaciones
de la Web que requieren modificación de las URLs o migraciones
hacia otros sitios en dominios diferentes.
Sin embargo, como se puede ver en la especificación de Google 16 ,
este es también el tipo de redirección a implementar en los procesos
de canonicalización o especificación de las direcciones originales de
nuestras páginas, reenviando tanto al usuario como al robot a la
versión de la URL que se desea indexar.
Por ejemplo, cuando redirigimos de la versión http a https de las
URLs o viceversa (lo importante es especificar una de ellas como la
versión “original”), o la versión sin barra al final de una URL a la
versión con barra, por ejemplo: tuweb.com/categoría hacia
tuweb.com/categoría/, o de la versión sin www a la versión con www
de una URL como se puede ver en la Figura 4.27.
Figura 4.27. Redirección 301 de la versión sin-www a la www de la página de inicio de eBay.
Esta configuración, con redirecciones 301s que se debe implementar
en todas las páginas del sitio es fundamental para evitar una
duplicación del mismo y que los buscadores indexen varias
direcciones para una sola página.
302 Redirección Temporal: Existen otras situaciones más
específicas para las que se debe de implementar una redirección 302,
que es temporal y por lo tanto, no va a hacer que la URL que se
redirija se desindexe o pase su popularidad a la URL a la que apunta.
Es por esta característica que se aconseja usarla en situaciones
específicas cuando se implemente una modificación que no es
permanente o para la cual no se desea dejar de indexar y posicionar la
URL que se redirige en su lugar, por ejemplo, con páginas de inicios
“globales” en la raíz que redirigen con 302 al directorio específico del
país o idioma correspondiente.
Es común al hacer una auditoría SEO encontrar que en algunos casos no se
implementan bien las redirecciones y se redirija hacia páginas totalmente
irrelevantes en vez de la nueva versión de la página (o si no existe, hacia su
la página de categoría superior) o en vez de implementar con redirecciones
301 se hace con redirecciones 302.
Es por ello fundamental hacer una validación no sólo del volumen de
redirecciones, sino de los tipos y la “lógica” de redireccionamiento que se
sigue, ya que como mostraba antes, existen situaciones en los que deben
implementarse redirecciones para una correcta configuración de la Web, sin
embargo, es importante garantizar no solo que existen, sino además que no
se está rastreando de forma innecesaria debido a la existencia de enlaces
internos que no están actualizados.
¿Cómo valorar y optimizar la indexabilidad de una Web?
Una vez que nos aseguramos que el buscador puede rastrear todas las
páginas que deseamos y que no pierde el tiempo reconociendo aquellas que
no, el siguiente paso es verificar si están siendo indexadas, cómo las está
indexando y qué contenido está reconociendo de las mismas.
Como se ha mostrado antes con el operador de búsqueda “site:” podemos
tener una referencia de las páginas indexadas de cualquier dominio, para el
cual además podemos verificar su copia “cacheada” por Google y cuándo
fue la última vez que el buscador hizo de la misma, aunque estas son sólo
referencias y hay que tomarlos con pinzas.
Figura 4.28. Verificación de Páginas Indexadas con “site:”.
Además de la funcionalidad de “Explorar como Google” del Google Search
Console podemos tener una referencia del último año de la cantidad de
páginas indexadas vs. aquellas bloqueadas o eliminadas (a través de la
funcionalidad de eliminación de páginas de su índice 17 ) como se puede ver
en la Figura 4.29 con el “Estado de Indexación”:
Figura 4.29. Estado de Indexación en Google Search Console.
A nivel general, una de las grandes actividades en un proceso SEO es
optimizar la arquitectura del sitio por un lado y crear contenido por el otro
para que la Web ofrezca más páginas indexables y contenido para que el
buscador indexe. Sin embargo, el volumen no es el único criterio y no por
tener más páginas indexadas quiere decir que las mismas posicionarán
mejor: Nos debemos también asegurar que este contenido es original y
único para cada una de las páginas donde se publica, además de que es
relevante de cara al grupo de palabras clave para el cual se desea posicionar.
Figura 4.30. Evolución de Estado de Indexación de las páginas rastreadas en OnPage.org.
Si el contenido no es único por página y se encuentra duplicado ya sea con
el contenido de otras páginas internas de nuestro sitio o con el contenido de
otras Webs, entonces Google podrá no posicionarlo o tendrá problemas para
hacerlo de forma correcta y hasta podría llegar a afectarnos al filtrarlo
después de una actualización del algoritmo en el caso que lo haya tomado
en cuenta.
¿Cómo identificar el contenido duplicado de nuestro sitio y evitar
generarlo? Si no es posible evitar generarlo —algunas veces no lo es debido
a la forma en que funciona el sistema de gestión de nuestra Web—,
entonces ¿Cómo se evita su indexación de forma efectiva sin que se
rastreen un gran porcentaje de páginas que no serán indexadas de todas
formas? Existen distintas alternativas que se verán a continuación, que
pueden ser identificadas a través de los rastreadores Web y cuya
configuración en cada caso debe de ser verificada.
Como se puede ver en la Figura 4.30 los rastreadores que se ejecutan en la
nube como OnPage.org permiten identificar y ofrecen información sobre las
páginas indexables, indexables pero duplicadas y no-indexables, con
informes que se generan una vez que se rastrea una Web.
Además, llegan a ofrecer más nivel de granularidad en el análisis,
facilitando mucho nuestra labor de validación, como se puede ver en la
Figura 4.31 se muestra el listado de:
Aquellas páginas que son indexables y tienen contenido único: Que
deberemos optimizar para que sea relevante de cara a los términos de
búsqueda para los que se desee posicionar.
Figura 4.31. Informe con problemas de Indexación en OnPage.org.
Las que son indexables pero están duplicadas: Que muestran el
mismo contenido de texto entre sí, es decir cuando la URL A muestra
el mismo contenido que la URL B, por lo cual deberemos:
• Optimizar, ya sea para desduplicar y hacer que el contenido sea
único si las URLs tienen un propósito distinto —si se refieren a
páginas que muestran distintos productos y por falta de recursos
por ejemplo no se han podido crear descripciones específicas para
cada una por lo cual presentan contenido duplicado que debe ser
diferenciado—.
• Evitar la publicación o el rastreo & indexación (en caso que no
pueda evitar publicarse) de aquellas páginas que identifiquemos
que se publican por el funcionamiento de la plataforma Web que
usemos y no porque sean URLs que corresponden a contenido,
productos, servicios o categorías específicos o únicos que
realmente deseemos mostrar —como suele suceder con URLs con
cierto tipo de filtros u ordenaciones, que muestran el mismo
contenido y producto y no debería de indexarse de forma
independiente—.
Todas aquellas páginas que por otro lado no están indexadas ya que
están siendo redirigidas a otras, canonicalizadas, paginadas o
noindexadas, (además de mostrarse también aquellas que son
bloqueadas por el robots.txt o que muestran errores). En todos estos
casos deberá de verificarse si la noindexación consecuente a estas
configuraciones es correcta o deberían realmente de indexarse.
Ya se ha explicado el concepto y el uso del robots.txt, las redirecciones y
por qué se debe evitar el rastreo de las páginas de errores; ahora veremos
tres conceptos adicionales que, aunque no afectan el rastreo de las páginas
como los anteriores, se enfocan a configurar su indexación —o más bien, su
no-indexación-:
Meta Robots & x-Robots tags:
La forma más granular de evitar la indexación de una página es a través de
la etiqueta meta robots o el x-robots-tag, que además pueden incluir otras
directrices para que sean tomadas en cuenta por el buscador, que el propio
Google especifica 18 y que se puede apreciar en el Figura 4.32, tanto para
permitir la indexación de la página, como para evitarla con la directiva
“noindex”, como para evitar que se sigan los enlaces en la página con el
“nofollow” o el “noodp” que hará que se evite utilizar la información del
Open Directory para los títulos y descripciones de la página en los
resultados de búsqueda, entre otros.:
Figura 4.32. Directivas del meta robots & x-robots tags reconocidas por Google.
Se puede también usar una combinación de directivas, por ejemplo, es muy
común usar la combinación de: “noindex, follow” para evitar que una
página sea indexada, pero asegurar que los enlaces sean seguidos, por
ejemplo.
Estas directivas pueden incluirse directamente en el código HTML de las
páginas con la etiqueta meta robots en el head, como se puede ver en la
Figura 4.33:
Figura 4.33. Etiqueta meta robots con noindex.
La inclusión de la etiqueta meta robots en el head del HTML con una
directiva “noindex” es una de las técnicas más comunes para evitar su
indexación cuando:
Se trata de páginas que se generan de manera dinámica y muestran
contenido duplicado o semi-duplicado a otras que sí forman parte
estructural de la Web —categorías, subcategorías o páginas de
productos—, por ejemplo, como las páginas de resultados de
búsquedas internas del buscador de una Web.
No es posible asociar cada una de las URLs que se generan con
contenido duplicado a sus páginas “originales”, aquellas que se
enlazan y forman parte estructural del sitio, muestran el mismo
contenido y son las que deben indexarse y posicionarse.
En la Figura 4.34 puede verse un ejemplo de uso de la etiqueta meta robots
con un “noindex, follow” en los resultados de búsqueda interna de Zalando
para “zapatos running”:
Figura 4.34. Ejemplo de uso de Meta Robots en Zalando.
Otra alternativa para la implementación de estas directrices a nivel de
página es la inclusión del X-Robots tag en la cabecera HTTP de las páginas,
recomendable para otro tipo de documentos, como PDFs o archivos que no
deseen indexarse.
Figura 4.35. Noindex en X-Robots Tag.
Etiqueta Canónica:
Otra alternativa para evitar la indexación de URLs con contenido duplicado
es el uso de la etiqueta canónica que además permite referenciar a su
versión original.
De forma similar a la etiqueta meta robots se incluye en el head del HTML,
sin embargo, se usa en el caso que se pueda referenciar de la URL con
contenido duplicado a su versión original ya que se deberá incluir la URL
original en la etiqueta, como versión “preferida” a indexarse —en vez de la
duplicada en cada caso—, como se indica en la especificación de Google 19
que se ve en la Figura 4.36.
En este caso, la etiqueta canónica no actúa como una directriz como el meta
robots, sino como una “señal”, por lo que no se recomienda usarla en su
sustitución, sino en escenarios específicos.
El uso de la etiqueta canónica se recomienda usar por defecto siempre para
que la URL original apunte hacia sí misma, y que sus versiones que se
generen con parámetros que se incluyan con propósitos de monitorización
—por ejemplo, taggeo de URLs con sistemas de analítica Web como
Google Analytics— o de ordenación que no alteren el contenido de la
página apunte siempre a la versión original de la URL sin parámetros, como
se puede ver en el ejemplo de la Figura 4.37.
Figura 4.36. Especificacion de etiqueta rel canónica por Google.
Figura 4.37. Uso de etiqueta canónica con parámetros de campañas en la URL.
Paginaciones:
Otro escenario común de duplicación o semi-duplicación de contenido se
encuentra en las paginaciones que se generan en un listado, y en este
escenario se pueden indicar las mismas a través de las etiquetas rel=”next”
& rel=”prev” 20 que Google especifica y puede verse en la Figura 4.38,
como se debe de marcar la página anterior y siguiente cuando existan.
Figura 4.38. Especificación de etiquetas de paginaciones Rel=”next” y Rel=”Prev” por parte de
Google.
Un ejemplo del uso de etiquetas de paginación se puede ver en la Figura
4.39 donde nos encontramos en la segunda página de la serie desde que se
apunta a la anterior, la primera y la siguiente, la tercera.
Figura 4.39. Ejemplo de uso de etiquetas de paginación en Zalando.
Se da la coincidencia que en esta imagen también se puede ver cómo se
incluye la etiqueta meta robots con un “noindex, follow” pero es importante
señalar que no hace falta incluirla, ya que la labor de las etiquetas de
paginación es indicar la “relación” de las paginaciones, que forman parte de
una serie por lo que pueden ser indexadas sin problemas.
Cada uno de estos escenarios y mecanismos para evitar la indexación del
contenido deberán de ser validados para evitar que contenido duplicado sea
indexado, que se esté noindexando contenido único y valioso de cara al
posicionamiento y que el buscador “invierta” demasiado tiempo en rastrear
contenido noindexable, para lo cual además se deberá de optimizar el
enlazado interno hacia estas páginas.
OPTIMIZANDO LA VELOCIDAD DE TU WEB
Uno de los factores a optimizar para facilitar el rastreo de todas las páginas
que deseemos que el buscador acceda e indexe el contenido que queramos
es la velocidad de nuestra Web: Mientras más rápido sea para el buscador
acceder a nuestras páginas más podrá identificar en el caso que tengamos
muchas.
De igual forma, Google desea dar una buena experiencia de usuario y
evitará posicionar contenido que tarda mucho en cargarse, es por ello que
una de las acciones de optimización “base” es optimizar el tiempo de carga
de nuestras páginas.
Figura 4.40. Proyecto de AMP para mejorar la velocidad de las páginas.
El pasado 7 de octubre el 2015 Google anunció el Proyecto AMP —open
source— que desea ofrecer un framework que permita cargar de forma más
rápida las páginas usando ciertos recursos específicos y hasta un servicio de
caché del propio Google.
El AMP fue pensado inicialmente para ser útil para los medios y sitios
Webs de noticias y blogs enfocados a contenido —y mostraba los resultados
en el carrusel de noticias—, sin embargo Google ya ha anunciado que se
expandirá su uso a los resultados orgánicos y comenzará a brindar
funcionalidades para otro tipo de Webs, como sitios de ecommerce y
aunque su uso específico no sea un factor de posicionamiento, deja claro el
compromiso de Google por la velocidad y cómo desea incentivar el uso de
este servicio comenzando por los grandes medios.
¿Cómo identificar el tiempo de carga de nuestras páginas y aquellos
elementos que deben de ser optimizados?
Google ofrece una guía de rendimiento para Desarrolladores 21 en las que
además incluye recomendaciones para la optimización de la velocidad de
las Webs, en las que además incluye recomendaciones para la mejora de la
velocidad de las Webs, como optimizar el tiempo de carga del servidor para
el primer byte, entre otras acciones, como:
Evitar el uso de JavaScript & CSS que bloqueen la renderización del
resto del contenido de la página y comenzar a usar recursos
asíncronos.
Cachear los recursos que se reusarán de la Web y no se modificarán
como imágenes, JS, CSS.
Optimización de las imágenes reduciendo su tamaño manteniendo la
calidad de las mismas (usando herramientas como Kraken.io).
Minificación de HTML, JS & CSS, eliminando espacios
innecesarios, saltos de líneas o sangrías reduciendo el tamaño de los
archivos.
Para valorar las mismas también ofrece una herramienta de validación de
velocidad a nivel de página (que no de todo el sitio) llamada PageSpeed
Insights 22 a través de la cual también ofrece recomendaciones
personalizadas en base a lo encontrado, como se puede ver en la Figura
4.41.
Es fundamental entonces identificar los aspectos a mejorar a nivel de
rendimiento de aquellas páginas más críticas: las más visitadas, las que
tienen más visibilidad, las que deben de permitir al usuario convertir, por
ejemplo.
Figura 4.41. Google PageSpeed Insights.
Se pueden identificar los problemas de velocidad de las páginas más
importantes de nuestra Web a través del propio Google Analytics, en el
informe de “Sugerencias de Velocidad”, donde, además de priorizar
aquellas páginas con más vistas se muestra el tiempo de carga media, su
valoración de velocidad por PageSpeed, con un enlace desde cada una hacia
las sugerencias de la herramienta de PageSpeed Insights, como puede verse
en la Figura 4.42.
Para hacer esta validación a nivel masivo para todas las páginas de nuestra
Web o aquellas con más visibilidad, se puede usar URLProfiler y
conectarlas con el API de Google para verificar el “Mobile PageSpeed” y el
“Desktop PageSpeed” para todas las URLs que incluyamos, y para las que
obtendremos un Excel como el que se ve en la Figura 4.43 especificando
cada una de las mejoras en cada caso.
De igual forma, los rastreadores SEO ofrecen esta información para las
páginas que se rastrean, como se puede ver en la Figura 4.44 de OnPage.org
en la que, además de ofrecernos el tiempo de respuesta del servidor, de
carga del primer byte, segmenta las páginas que cargan rápida y lentamente,
y cuya información podemos usar para priorizar su optimización.
Figura 4.42. Sugerencias de Velocidad en Google Analytics.
Figura 4.43. Valoración de Velocidad masiva con URLProfiler.
Figura 4.44. Valoración de Velocidad de Páginas con OnPage.org.
OPTIMIZANDO UNA WEB MULTI-DISPOSITIVA
El pasado Octubre Google ya confirmaba que más de la mitad de las
búsquedas con ellos se realizaban desde dispositivos móviles 23 es por ello
que desde el 21 de Abril del 2015 toma en cuenta la optimización de las
Webs de cara a estos tipos de dispositivos como un factor de
posicionamiento en los resultados de búsqueda móviles 24 , y que comenzó a
tomar en cuenta aún más desde Mayo del 2016 25 .
Lo cierto es que esta actualización no nos debió haber tomado por sorpresa
ya que Google, desde hacía algunos años, había comenzado a publicar
desde buenas prácticas SEO 26 hasta un rastreador enfocado en descubrir
contenido móvil (que está actualizando con cierta frecuencia ya 27 ) o
herramientas para facilitar la optimización móvil.
Lo primero para comenzar con un proceso de optimización móvil será
conocer el estado inicial de nuestra Web, y el primer paso lo podemos tomar
con la propia prueba de optimización para móviles de Google, que valida lo
fundamental a nivel de página —no de sitio— como se puede ver en la
Figura 4.45:
Figura 4.45. Prueba de optimización para móviles de Google.
En esta prueba Google verificará si identifica una versión optimizada para
los dispositivos móviles identificando si estamos incluyendo la meta
etiqueta de ventana gráfica (viewport) 28 que se debe incluir en el head del
HTML de nuestras páginas para escalar las dimensiones en base al tipo de
dispositivo, como se puede ver en la Figura 4.46.
Figura 4.46. Elemento meta viewport que debe ser incluido en páginas optimizadas para varios
dispositivos.
Sin embargo, aunque tengamos esta meta etiqueta incluida y configurada, y
nuestra Web tenga un diseño adaptable, por ejemplo, puede ser que estemos
bloqueando el acceso al rastreo de ciertos recursos como imágenes, JS &
CSS a los que Google debe acceder para reconocer la configuración, por lo
que tener una Web optimizada al usuario móvil no es suficiente, hace falta
verificar la configuración de cara al rastreo e indexación móvil también.
Es por ello fundamental que rastreemos toda nuestra Web, usando los
rastreadores SEO, que permitirán que elijamos el agente de usuario con el
que deseamos rastrear y en este caso elegiremos el “Googlebot para
Smartphones” que es el agente de usuario que Google usa para identificar el
contenido Web móvil como se puede ver en la Figura 4.47.
Figura 4.47. Selección de agente de usuario móvil para hacer un rastreo móvil a nuestra Web.
Al rastrear nuestra Web con el agente de usuario móvil podremos identificar
si accede a las páginas, si se está redigiriendo o mostrando un contenido
diferente, si existe una versión móvil específica —con una Web de
publicación dinámica o sitio Web móvil paralelo, que se explicarán a
continuación— si los títulos, meta descripciones y demás elementos están
optimizados, etc.
De forma similar, para validar a nivel masivo que todas las páginas de
nuestra Web que hemos rastreado o al menos aquellas que tienen más
visibilidad móvil que podemos obtener a través del Google Search Console
(desde “análisis de búsqueda” filtrando por dispositivo móvil) pasan la
validación móvil de Google, podemos descargarlas e importarlas a
URLProfiler 29 .
Esta herramienta nos permite conectarnos con los APIs de Google y validar
para todas las URLs que se importen si pasan la validación móvil de
Google, así como verificar su optimización de velocidad móvil con Google
PageSpeed Insights y priorizarlas obteniendo los datos de tráfico y
visibilidad móviles para ellas también desde Google Search Console y
Google Analytics.
Por otro lado, desde un punto de vista de usabilidad Google también nos da
información en el Google Search Console a través del informe de
“Usabilidad Móvil” alertándonos de problemas que encuentra al rastrear
nuestra Web que afectarán de manera negativa al usuario móvil: Si no se
encuentra la ventana gráfica configurada, si se está usando Flash para
mostrar contenido —que no se visualiza bien en dispositivos móviles—,
elementos táctiles demasiado cercanos entre sí, etc. con el cual podemos
además obtener en qué páginas se están generando estos problemas.
Figura 4.48. Verificando la optimización y velocidad móvil de las páginas con más visibilidad móvil
con URLProfiler.
Figura 4.49. Informe de usabilidad móvil en Google Search Console.
Una vez que hayamos identificado estos casos es fundamental validarlos
también a través de emuladores móviles (en caso que no podamos acceder
directamente con dispositivos reales). Con Google Chrome tenemos un
emulador a través de las “Herramientas de Desarrolladores” que pueden ser
accedidas desde el menú superior y la opción de “Ver” 30 o con otros
emuladores como el de mobilephoneemulator.com/.
Figura 4.50. Validación de visualización móvil con emuladores.
Aquí es importante verificar el uso que se hace de los interstitials, que son
las ventanas que se muestran al usuario antes de acceder al contenido de la
Web y a través de las cuales se ofrece descargar entre otras cosas la
aplicación móvil. Este comportamiento no es recomendado por Google y es
penalizable, ya que además de ser intrusivo para el usuario puede afectar el
rastreo del contenido. En vez de usar interstitials, si se desea incentivar la
descarga de las apps móviles es recomendable usar los llamados app
banners 31 que se muestran en la parte superior de la página pero no afecta
el acceso al contenido principal.
Figura 4.51. Uso de Interstitials en Móviles vs. App Banners.
Algo fundamental para poder decidir qué tipo de sitio Web móvil vamos a
habilitar, qué contenido debemos priorizar de cara a esta optimización, así
como aspectos críticos de funcionalidad que deben ser más visibles para el
usuario móvil, es hacer un estudio de palabras clave en el que segmentemos
e identifiquemos el patrón del comportamiento de búsqueda de los usuarios
móviles, y si se busca lo mismo o temáticas diferentes que desde el
escritorio.
Esto se puede hacer más fácil usando los segmentos móviles de las
herramientas de palabras clave que ya utilizamos, como la herramienta de
Palabras Clave de Google.
Figura 4.52. Porcentaje de búsqueda móvil en la herramienta de Palabras Clave de Google.
De igual forma, podemos usar Sistrix, que ofrece a información de palabras
clave para las cuales nuestra propia Web y la de nuestra competencia está
posicionando para la búsqueda móvil.
Todo esto nos debe permitir identificar, por ejemplo, si el usuario desde el
móvil busca más las direcciones, las opiniones y el teléfono y en base a ello
se mostrará esta información de forma priorizada y optimizará el contenido
para la misma, como se puede ver en el ejemplo de Tripadvisor de la Figura
4.54.
Figura 4.53. Términos de búsquedas móviles.
Figura 4.54. Optimización móvil de una página de Tripadvisor.
Lo cierto es que aunque para muchos un sitio Web con diseño adaptable sea
sinónimo de Web optimizada de cara al móvil, esta no es la única
alternativa y algunas veces no es necesariamente la mejor opción para
nuestra Web.
A nivel general, como se puede ver en la Figura 4.55 existen tres
alternativas (que no son excluyentes) para optimizar el sitio Web de cara a
los dispositivos y usuarios móviles:
1. Sitio Web con diseño adaptable (también conocido como responsive),
que lo que hace es hacer uso de las CSS media queries para modificar
el “diseño”, el tamaño y organización de la información que se
muestra en las páginas de nuestra Web para que sea visualizado desde
cualquier dispositivo, aunque el contenido, el HTML, así como las
URLs, siempre sean las mismas.
2. Sitio Web con Publicación Dinámica: Identifica el tipo de agente de
usuario que accede a las páginas (si se trata de un usuario o rastreador
móvil o de escritorio, por ejemplo) en base a lo cual muestra
contenido con HTMLs diferentes, optimizados con diseño para cada
dispositivo a través de las mismas URLs.
3. Sitio Web Móvil Independiente: Se habilita una versión móvil
“independiente” o paralela de nuestra Web que se muestra en URLs
específicas, usualmente bajo un subdominio “m”, con un diseño
optimizado de cara a los dispositivos móviles. Cuando un usuario o
rastreador accede a la Web se identifica el tipo de agente de usuario,
si es móvil o desktop, y se redirige hacia la versión de la URL
adecuada al dispositivo en caso que no se haya llegado a la misma
por defecto.
Figura 4.55. Alternativas de Webs Optimizadas para dispositivos móviles.
Debido a estas características, usualmente si identificamos que el
comportamiento del usuario móvil es el mismo que el usuario de escritorio
y no requerimos personalizar de forma distinta el contenido y funcionalidad
móvil, el diseño Web adaptable bastará. Sin embargo, si identificamos que
el comportamiento del usuario móvil es totalmente diferente, busca
términos y contenido distinto, y deseamos personalizar la oferta de
productos y servicios así como promociones, es probable que tengamos más
flexibilidad y capacidad de hacerlo con una publicación dinámica o Web
móvil independiente.
Veamos, de manera más específica, los pros & contras de cada tipo de
configuración, así como sus buenas prácticas para asegurarnos que estén
optimizadas, tanto para los usuarios como para el buscador:
Recomendaciones SEO para sitios Web móviles adaptables
El diseño Web adaptable suele ser la opción más popular de los usuarios
para “movilizar” la Web, sin embargo, tiene pros y contras también:
Pros:
• No existe riesgo de duplicación de contenido porque se muestra el
mismo contenido, en el mismo HTML y la misma URL tanto al
usuario y robots móvil y de escritorio.
• Es más fácil de mantener ya que sólo hay que actualizar el
contenido una vez ya que es el mismo tanto para el usuario y robot
móvil como de escritorio.
• No hay problema con la consolidación de popularidad ya que todos
los enlaces externos vendrán siempre a la misma URL que se
muestran tanto para móvil como para escritorio.
• No hace falta redirigir ni al usuario ni al robot a una página Web
móvil o de escritorio específica.
• Con una sola implementación podemos hacer nuestra Web
amigable tanto al móvil como a las tablets.
Contras:
• Se requerirá el rediseño de la Web, lo cual algunas veces no es
posible debido a restricciones del CMS.
• No ofrece diferenciación de contenido y oferta real y a nivel
granular para el usuario & robot móvil vs escritorio.
• Suelen existir más problemas de usabilidad y velocidad al tener
que “cargar” siempre el mismo contenido tanto al usuario y robot
de escritorio como móvil (aunque finalmente sólo se muestre una
parte y se oculte el resto con el móvil).
Puede fácilmente verificarse el diseño Web adaptable con el responsive
design checker: responsivedesignchecker.com/ así como varias otras
herramientas enfocadas a la validación del mismo.
Por ejemplo, el sitio Web de Microsoft de la Figura 4.56 es adaptable y se
puede ver como el contenido es el mismo y lo que se hace es modificar lo
que se muestra en uno y otro caso a través de los CSS media queries.
Figura 4.56. Sitio Web móvil adaptable.
En la Figura 4.57 podemos ver en el caso de Starbucks que también es
responsive cómo usa los CSS media queries para hacer cambios en su
diseño adaptable en base al tamaño de la pantalla en la que se esté
mostrando.
Figura 4.57. Uso de CSS Media Queries en Sitio Web móvil adaptable.
Sin embargo, como ya se ha mencionado antes, se deben de seguir ciertas
buenas prácticas para que el buscador pueda reconocer esta configuración,
en este caso es la de permitir que el rastreador pueda acceder a las
imágenes, JavaScript & CSS del diseño.
Figura 4.58. Robots.txt bloqueando los rescursos de una Web móvil adaptable.
Recomendaciones SEO para Web dinámicas
En el caso de las Webs móviles dinámicas, se muestra un HTML u otro a
través de la misma URL en base al agente de usuario que accede a las
páginas, lo que permite modificar totalmente el diseño y la interfaz
adecuándolos al tipo de dispositivo, como se puede ver en el ejemplo de la
Figura 4.59 de la Web de Orbitz.
Figura 4.59. Ejemplo de Webs Dinámicas.
Esta configuración puede verificarse usando un emulador como el ofrecido
en Google Chrome que se compartió con anterioridad. Los pros & contras
de la Web dinámica son:
Pros:
• No existe riesgo de duplicación de contenido ya que se muestra el
mismo a través de una sola URL.
• Existe la posibilidad de diferenciar la oferta, el contenido y
funcionalidad que se le da al usuario por dispositivo.
• Se consolida la popularidad ya que se muestra el contenido
siempre bajo la misma URL.
• Se suele ofrecer una mejor experiencia de usuario debido a la
capacidad de personalización completa del contenido,
funcionalidad e interfaz por dispositivo.
Contras:
• La implementación y validación suele ser más compleja, debido a
la detección de agentes de usuarios y la forma en que se muestra el
contenido bajo la misma URL tanto al usuario como al robot de
escritorio como móvil.
• Suele conllevar más costes de implementación ya que se
desarrollarán dos versiones del HTML y el contenido no será el
mismo, uno para el móvil y otro para el escritorio.
• Requerirá también más esfuerzo en caso que se desee habilitar una
versión específica para las Tablets.
En este caso, lo que debe de configurarse bien es la identificación de los
agentes de usuario, e incluir en el http header un “Vary: User-Agent”
indicando que el contenido del mismo se modificará en base al agente de
usuario.
Figura 4.60. Configuración de Vary: User-Agent en el HTTP header.
Recomendaciones SEO para Web móviles independientes (o
paralelas)
En los sitios Web móviles independientes o paralelos se habilita una versión
específica enfocada a los usuarios y buscadores móviles en una estructura
de URLs alternativa, bajo un subdominio “m”, como se puede ver en el
ejemplo de la Figura 4.61.
En este caso también existen Pros & Contras:
Pros
• Es más fácil de implementar que el diseño Web adaptable y
publicación dinámica, ya que se debe de habilitar una estructura
paralela a la actual, sin realizar cambios en lo que existe en las
páginas enfocadas a escritorio.
• Más capacidad de diferenciar la oferta y contenido enfocado por
dispositivo, de forma similar a la publicación dinámica.
Figura 4.61. Ejemplo de Web móvil independiente o paralela.
• Una mejor experiencia móvil que el diseño Web adaptable ya que
en este caso se puede personalizar la página y el HTML que se
muestre al usuario móvil para una experiencia optimizada a su
dispositivo si se desea.
Contras
• Al mostrarse la Web móvil en una estructura de URLs paralelas si
no se configura bien se puede correr el riesgo de que sea
identificado como contenido duplicado.
• Puede también existir dilución de popularidad en caso que se
enlace a las Web móviles paralelas, ya que, aunque existirá una
etiqueta canónica apuntando hacia la versión desktop de las URLs,
estas actúan como señales y no como directivas.
• Existirá un mayor esfuerzo de rastreo e indexación del contenido
ya que habrán URLs específicas móviles además de las de
escritorio.
• Existirá también un mayor coste de mantenimiento e
implementación que con un diseño web adaptable ya que se
requerirán hacer cambios específicos a la versión móvil cada vez
que se requiera actualizar y en caso de habilitar una versión
Tablet, deberá de hacerse con otra estructura independiente.
¿Cómo asegurarnos que la estructura Web móvil paralela se configure de
manera correcta?
La primera recomendación es que exista una consistencia en la estructura de
URLs móviles con las de escritorio, como se puede ver en la Figura 4.62, de
esta forma se facilitará la configuración posterior del etiquetado y de las
redirecciones, así como la monitorización; que, de otra forma, usando
subdirectorios o peor aún, URLs con parámetros, puede ser muchísimo más
complejo.
Figura 4.62. Estructura Web de una Web móvil independiente o paralela.
Es también fundamental incluir el etiquetado en el head de los HTMLs de
las páginas indicando la relación entre cada una de las páginas móviles y
sus versiones de escritorio, como se puede ver en la Figura 4.63:
Incluyendo una etiqueta link rel alternate indicando la versión de
URL móvil desde las páginas de escritorio
Incluyendo una etiqueta link rel canonical desde las páginas móviles
a sus versiones de URLs de escritorio
Figura 4.63. Etiquetado link rel alternate & link rel canonical entre las páginas móviles y de
escritorio en una Web móvil paralela o independiente.
Esta configuración debe de hacerse de página desktop a página móvil
específica, y en caso que no se pueda incluir en el head de los HTMLs se
puede también incluir en el XML sitemaps de la Web como se especifica en
la Figura 4.64 aunque para asegurarse que Google identifica esta
configuración y no depender del procesamiento del sitemap, lo mejor es
siempre que sea posible implementarla en el HTML de forma directa.
Figura 4.64. Etiquetas Link Rel Alternate en el XML sitemap.
Aunque con el etiquetado Google debería de reconocer la configuración
móvil paralela, en un caso dado de que un usuario móvil llegue hacia una
página de escritorio y en el que un usuario de escritorio llegue a una página
móvil, deben de implementarse redirecciones 301s hacia la página relevante
en cada caso, como se puede ver en la Figura 4.65.
Figura 4.65. Redirecciones de página móvil a escritorio y viceversa.
ESPECIFICACIÓN DE IDIOMA & PAÍS OBJETIVO
En algunas ocasiones vamos a tener que optimizar (y hacer procesos SEOs
completos también) a Webs que se enfocan a más de un idioma o país, y
algunas veces, dar feedback desde un punto de vista SEO para establecer el
enfoque internacional de una Web.
Lo primero, antes de optimizar (o desarrollar) una Web internacional, es
determinar cuál es su enfoque, si está orientada a países o a idiomas, ya que
si este criterio que es fundamental no se tiene claro causará que después no
se optimice a la audiencia internacional adecuada.
Una Web se puede enfocar ya sea a idiomas o a países, lo ideal es a países,
ya que es el enfoque más granular posible, en el que se podrá establecer en
la Web una experiencia más optimizada y enfocada al comportamiento
específico de la audiencia en cada país —aunque los británicos y los
estadounidenses hablen inglés, los términos para referirse a los mismos
servicios o productos pueden ser distintos, lo mismo que ocurre con el
Español de España vs. cada uno de los países de Latinoamérica en el que se
usan términos diferentes en muchos casos-; sin embargo, no siempre es
posible o es relevante desde un punto de vista de negocio enfocarse a
países, ya que puede no existir suficiente cantidad de usuarios buscando
nuestros servicios o productos en cada uno de ellos.
El habilitar múltiples versiones de países o idiomas que luego no son
rentables y no se pueden actualizar y optimizar por falta de recursos, es una
consecuencia de que no se haya hecho esta validación al inicio de una
auditoría SEO internacional. Por lo tanto, como se ve en la Figura 4.66 es
fundamental preguntarse: ¿La localización es un factor que influencia las
operaciones de mi Web? ¿Hay suficiente tráfico y conversiones potenciales
de cada país?
Figura 4.66. Validación de enfoque internacional de sitio Web.
En el caso que sea un blog de tecnología, por ejemplo, en el que las noticias
serán siempre las mismas aparte de la localización del usuario o si existen
países con mercados aún muy pequeños, será mejor entonces habilitar u
optimizar para idiomas, al menos al comienzo, en vez de países, y una vez
que se identifique que hay suficiente volumen de búsqueda desde ciertos
países, se puede habilitar una versión específica para cada uno de ellos.
Si nos enfocamos entonces a idiomas, es indispensable validar que cada uno
de ellos tiene una estructura Web independiente con subdirectorios o
subdominios, usando el idioma relevante en las URLs, para así optimizar la
relevancia de las mismas.
Se debe evitar usar parámetros o scripts mostrando el contenido en
diferentes idiomas a través de la misma URL, en base al idioma del
navegador o cualquier otro criterio, ya que se puede correr el riesgo de que
algunas de las versiones de los idiomas no sean indexables y sean mucho
más difíciles de monitorizar.
Figura 4.67. Alternativas de Estructura Web Internacional con enfoque a Idioma.
Es recomendable el uso de sub-directorios cuando se desea heredar al
máximo la popularidad ya existente en la versión inicial de la Web y no se
tienen millones de páginas a indexar con una estructura compleja que
podría llegar a ser más complejo de rastrear e indexar a nivel de sub-
directorio.
Por otro lado, si heredar la popularidad de la versión inicial de la Web no es
un criterio y lo que se desea es tener la capacidad de indexar nuevas páginas
en el nuevo idioma con una estructura más diferenciada, entonces el
subdominio sería la versión más adecuada.
Esta misma organización y criterios son utilizados para usar sub-directorios
y sub-dominios en el enfoque a países, sin embargo, en el enfoque a países
existe una posibilidad adicional que es la ideal: El uso de ccTLD, las
extensiones de dominios para cada país que automáticamente geolocalizará
hacia el mismo.
Sin embargo, esta alternativa muchas veces no es posible debido a
requerimientos y recursos técnicos, además que en este caso usualmente se
comienza sin un perfil e historial de popularidad lo cual hará más difícil de
posicionar si se enfoca a un país e industria medianamente competitiva.
Figura 4.68. Alternativas de Estructura Web Internacional con enfoque a país.
Figura 4.69. Opción de Geolocalización en Google Search Console.
Así que en cada caso habrá pros & contras y será importante elegir la
estructura más adecuada del escenario en cuestión, y usar también alguna
de ellas para así poder habilitar y optimizar una estructura única para cada
versión de idioma y país.
Algo importante es que si se está enfocando a un país con sub-directorios o
sub-dominios se debe geolocalizar cada uno de ellos dándolos de alta en
Google Search Console de forma independiente y hacer uso de la
“Segmentación Internacional” para que así se geolocalicen al país
correspondiente como se ve en la Figura 4.69.
Por otro lado, es también importante señalar que existe un listado de
ccTLDs que Google no geolocaliza por defecto 32 , ya que son utilizados por
muchos negocios que realmente no se enfocan a un país, por ejemplo, el
.co, como se puede ver en la Figura 4.70.
Figura 4.70. ccTLDs para enfoque a país.
Una vez establecida la estructura enfocada ya sea a país o idioma, es
fundamental optimizar la misma al idioma correspondiente, desde las
URLs, título, meta descripción, y contenido en general, como se puede ver
en la Figura 4.71 y siguiendo los criterios que se compartirán en la sección
de optimización de contenido.
Figura 4.71. Optimización de elementos de la Web en base al idioma.
Sin embargo, a nivel de configuración técnica se debe también especificar
en qué idioma y hacia qué país de forma alternativa se encuentra enfocada
cada página. Esto se puede hacer a través de los metadatos con la etiqueta
“content-language” y html lang como se puede ver en la Figura 4.72.
Figura 4.72. Especificación de idioma con el meta content language & el html lang.
De igual forma, se recomienda hacer uso de las etiquetas hreflang 33
reconocidas por Google y por Yandex, aunque aún no por Bing, para
identificar el idioma y el país al que se enfoca cada página, y así poder
posicionar la versión correcta en cada caso en sus resultados de búsqueda y
entender la relación entre las mismas, evitando identificarlas como
contenido duplicado en algunos casos en el que el idioma sea el mismo y
estén enfocadas a países distintos.
Las etiquetas hreflang deben incluirse en el área del head del HTML
(aunque también pueden especificarse en el http header o en los XML
sitemaps) y el objetivo es especificar para cada página su idioma y
alternativamente el país, incluyendo también sus versiones alternativas
enfocadas a otros idiomas y países, como se puede ver en la Figura 4.73 con
el ejemplo de TripAdvisor.
Figura 4.73. Etiquetas hreflang en Tripadvisor.
Para evitar errores en su implementación se puede usar la herramienta que
he creado para generar el etiquetado siguiendo las buenas prácticas de
Google que se puede encontrar en aleydasolis.com/en/international-seo-
tools/hreflang-tags-generator/ y que se puede ver en la Figura 4.74.
Por otro lado, pueden identificarse errores en su implementación en Google
Search Console donde se indica si Google ha identificado la existencia de
las etiquetas y encuentra cualquier problema con las mismas, y en el caso
que los haya, se indica el tipo de problema —códigos no existentes, páginas
que se referencian pero no referencian de regreso, etc.— y en qué páginas
se originan.
Figura 4.74. Generador de etiquetas hreflang.
Figura 4.75. informe de errores con hreflang en Google Search Console.
De manera adicional, se puede hacer una verificación directa con los
propios rastreadores SEO, usando por ejemplo los filtros en Screaming Frog
como se puede ver en la Figura 4.76.
Figura 4.76. Identificación de marcado hreflang con Screaming Frog.
Adicionalmente otros rastreadores como Onpage.org o Botify ofrecen
informes enfocados a mostrar los errores en la implementación del hreflang,
como se puede ver en la Figura 4.77 en el caso del primero.
Figura 4.77. Identificación de traducciones e idiomas automática con OnPage.org.
Por otro lado, es importante señalar que, aunque en muchos casos se
implemente bien la geolocalización y el etiquetado hreflang que señale el
idioma y país de cada caso se puede terminar accediendo a una versión del
sitio que no está enfocada al idioma o país del usuario correspondiente. En
estas situaciones es recomendable sugerir al usuario su versión más
relevante, dando la opción de acceder a la misma de forma alternativa como
lo hace Amazon (y guardando luego la configuración con cookies).
Figura 4.78. Recomendación de país según IP en Amazon.
Lo que no es recomendable en este caso es hacer esto a nivel automático
con redirecciones, ya que se puede terminar afectando el rastreo del sitio y
causar una experiencia no relevante e intrusiva de cara al usuario,
llevándolo a un sitio donde no ha pedido ir.
10 Puedes encontrar las directrices de Calidad de Google en:
support.google.com/webmasters/answer/35769?hl=es
11 Aquí tienes este y más operadores de búsqueda que puedes usar en Google:
support.google.com/websearch/answer/2466433?hl=es
12 webmasters.googleblog.com/2015/10/deprecating-our-ajax-crawling-scheme.html
13 support.google.com/webmasters/answer/1061943?hl=es
14 support.google.com/webmasters/answer/156184?hl=es
15 code.google.com/archive/p/sitemap-generators/wikis/SitemapGenerators.wiki
16 support.google.com/webmasters/answer/93633?hl=es
17 support.google.com/webmasters/answer/1663419?hl=es
18 developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag#usar-la-cabecera-
http-x-robots-tag
19 support.google.com/webmasters/answer/139066?hl=es
20 support.google.com/webmasters/answer/1663744?hl=es
21 developers.google.com/web/fundamentals/performance/?hl=es
22 developers.google.com/speed/pagespeed/insights/
23 searchengineland.com/half-of-google-search-is-mobile-232994
24 webmasters.googleblog.com/2015/04/rolling-out-mobile-friendly-update.html
25 webmasters.googleblog.com/2016/03/continuing-to-make-web-more-mobile.html
26 developers.google.com/webmasters/mobile-sites/mobile-seo/?hl=es
27 webmasters.googleblog.com/2016/03/updating-smartphone-user-agent-of.html
28 developers.google.com/web/fundamentals/design-and-ui/responsive/fundamentals/set-the-
viewport?hl=es
29 urlprofiler.com/
30 developer.chrome.com/devtools/docs/device-mode
31 https://developer.apple.com/library/ios/documentation/AppleApplications/Reference/SafariWebC
ontent/PromotingAppswithAppBanners/PromotingAppswithAppBanners.html
32 support.google.com/webmasters/answer/62399?hl=en&rd=1
33 support.google.com/webmasters/answer/189077?hl=es
5. Optimización de contenido
para desarrollar la relevancia de
tu Web
¿Qué es real? ¿Cómo defines lo real? Si estás hablando
de lo que puedes sentir, lo que puedes oler, lo que puedes
saborear y ver, entonces lo real son simplemente señales
eléctricas interpretadas por tu cerebro. — Matrix
CONCEPTO, IMPORTANCIA Y OBJETIVO DE LA
OPTIMIZACIÓN DE CONTENIDO
Una vez que por un lado ya se ha establecido el comportamiento de
búsqueda del usuario objetivo a través de un estudio de palabras clave y que
por otro se ha optimizado la estructura Web del sitio para que sus distintos
niveles de contenido sean accesibles de forma efectiva tanto de cara a los
buscadores como a los usuarios, el siguiente paso es asegurarse que el
contenido de la Web sea relevante, atractivo, único y útil para las búsquedas
realizadas por parte de la audiencia objetivo de la Web.
La creación y optimización de contenido para que sea temáticamente
relevante y descriptivo hacia las búsquedas de la audiencia del sitio —es
decir, que se incluyan los términos usados en la búsqueda dentro del
contenido— tiene un rol fundamental como factor de posicionamiento, ya
que es así que los buscadores podrán identificar si el contenido del sitio, ya
sea en texto, imágenes o vídeos, responderá de forma satisfactoria a la
necesidad de búsqueda del usuario; posicionándolo mejor o peor en
consecuencia.
Figura 5.1. La importancia de la relevancia del contenido en el SEO.
Es entonces crítico garantizar que las distintas áreas y elementos de los
distintos tipos de contenido del sitio se creen y optimicen para que sean
descriptivos, tomando en cuenta los términos o palabras clave usadas por la
audiencia.
A continuación, se mostrará cómo se debe optimizar el contenido para
establecer la relevancia de las distintas áreas del mismo, y buenas prácticas
a seguir para potenciar la relevancia de cada pieza de contenido del sitio de
cara a las palabras clave o términos para los que se desee posicionar, ya que
independientemente de los avances que ha hecho Google en su capacidad
semántica vamos a desear potenciar en la medida de lo posible la relevancia
de nuestra información para de igual forma lograr maximizar nuestros
resultados.
ORGANIZACIÓN DE CONTENIDO
Para lograr que cada una de las piezas y áreas de contenido del sitio sean
relevantes de cara a las búsquedas del usuario es imprescindible comenzar
“conectando” los términos identificados en el estudio de palabras clave con
las distintas áreas y páginas del sitio, de forma tal que cada temática se
abarque con una categoría o área determinada de la Web de forma
específica.
De esta misma forma se debe ir avanzando a nivel de granularidad conectar
las sub-temáticas más específicas con sub-categorías de la Web, y los
grupos de términos más específicos con las páginas de productos o
servicios, así se logrará que cada “nivel” y tipo de búsqueda sea respondido
por los distintos niveles jerárquicos de contenido del sitio.
Figura 5.2. Ejemplo de Matriz de Contenido por Distilled en la que se conectan los distintos grupos
de palabras clave con áreas y formatos de contenido del sitio Web.
Lo que se debe de evitar en esta etapa es que existan varios niveles,
categorías o distintos grupos de páginas que “ataquen” o incluyan
información que sea igualmente relevante de cara a los mismos términos de
búsqueda o palabras clave, ya que en este caso los buscadores tendrán
problemas para identificar correctamente cuál página de nuestra Web se
debe posicionar —ya que se estarían canibalizando y haciendo que nuestro
contenido compita con él mismo—.
Por ejemplo, en un sitio Web de “alquiler de apartamentos vacacionales”
alrededor del mundo, si se ofrece este servicio en Barcelona, no se debe de
crear una página para “alquiler de apartamentos vacacionales en Barcelona”
y otra sobre “alquilar apartamentos para vacaciones en Barcelona”, cuando
ambas se tratan de lo mismo y ofrecerían el mismo servicio o producto, por
lo cual, estos dos términos sinónimos realmente deben ser atacados por la
misma página de alquiler vacacional de apartamentos en Barcelona.
De igual forma, debido a esto los buscadores podrían valorar que estamos
“duplicando” el mismo contenido en varias páginas u ofreciendo contenido
de una calidad baja, lo cual puede hacer que se filtren las mismas de sus
resultados por sus algoritmos enfocados a quitar visibilidad contenido
pobre, poco relevante o con problemas de duplicidad, como el algoritmo
conocido como “Panda” de Google 34 , lanzado inicialmente en Febrero del
2011, con actualizaciones frecuentes y que ahora forma parte de las señales
de posicionamiento “base” de Google 35 .
Por ello es importante tener una estructura Web organizada jerárquica y
temáticamente de forma efectiva que permita fácilmente “conectar” o
relacionar los términos identificados en el estudio de palabras clave con las
mismas, tomando en cuenta que:
Cada página debería de estar enfocada a posicionar a una temática
específica que corresponda con su nivel de granularidad en la Web.
Una misma página no puede optimizarse para muchas y diferentes
temáticas que no describan el mismo nivel y tipo de producto o servicio, ya
que no es posible que una sola página sea “relevante hacia todas las
temáticas de la Web”. Como “regla de dedo” se recomienda optimizar una
misma página para un grupo de máximo 3 a 5 términos que sean
permutaciones o sinónimos de la misma palabra clave con el mismo
significado, que describa el mismo producto o servicio.
Por ejemplo, la página de inicio de una Web de alquiler de apartamentos
vacacionales a nivel mundial, deberá de ser optimizada con contenido que
sea relevante y enfocado a posicionar para los términos más genéricos que
describan el negocio que son los que una página de inicio debe atacar, en
este caso: “alquiler vacacional” o “alquiler de apartamentos vacacionales”,
etc., pero no para términos enfocados específicamente a localidades como:
“alquiler vacacional en Barcelona” o “alquiler de apartamentos vacaciones
en París”, que deberían de ser atacados y optimizados con páginas
específicas para cada una de las localidades donde se tenga presencia.
Otro ejemplo es el que se puede ver en la Figura 5.3 a continuación que
muestra las páginas de dos sub-categorías de vestidos de Zalando:
—”Vestidos Informales” y “Vestidos Tejanos”—, que se enfocan a ofrecer
productos, en este caso vestidos, diferentes, con características distintas y
que buscan satisfacer búsquedas también distintas por parte del usuario:
“vestidos informales” y “vestidos tejanos”.
Figura 5.3. Páginas de sub-categorías de vestidos en Zalando.
Es por ello que las Webs que muestran todo su contenido a través de una
única página intentando atacar y ser relevantes a distintos tipos de
temáticas, servicios o productos al mismo tiempo tienden a sufrir problemas
de relevancia y posicionamiento como consecuencia de la carencia de
relevancia específica.
No deben de generarse páginas individuales para términos que son
sinónimos, altamente similares que se refieran al mismo producto o
servicio o permutaciones de plural o singular.
Por ejemplo, nuevamente en el caso de una Web de alquileres vacacionales
a nivel mundial, si se tiene el servicio de alquiler vacacional en Madrid, no
se pueden crear múltiples páginas para el mismo destino que se enfoquen a
posicionarse de forma independiente para las distintas permutaciones de
términos sinónimos o altamente relacionados: “Alquiler vacacional en
Madrid” o “Alquiler de apartamentos vacacionales en Madrid” o
“Apartamento vacacional en Madrid”.
Todos estos términos están describiendo el mismo servicio y producto al
mismo nivel de granularidad y por lo tanto no deben de generarse páginas
independientes buscando como posicionar cada uno de los términos, sino
crear una página para alquileres vacacionales en Madrid que sea relevante
incluyendo contenido descriptivo y optimizado para todas estas
permutaciones de términos usados por los usuarios, de forma atractiva y
balanceada en el texto.
¿Pero cómo saber en qué momento se debe de habilitar una página
específica que sea rastreable e indexable que busque ofrecer un tipo de
producto o servicio de forma independiente y posicionarse para términos
específicos relevantes?
Aquí puede usarse el principio de oferta y demanda para decidir si
compensa y es recomendable crear una página específica para atacar un
grupo de términos de forma independiente:
Si por un lado existe un volumen de búsquedas no trivial —el
suficiente para generar el número mínimo de conversiones para que
sea rentable el esfuerzo de crear la página— relacionadas a una
categoría o tipo de productos o servicios relevante que se ofrece en la
Web pero que aún no tiene una página individual a posicionar.
Si por otro, aún no existe una página en la Web que se corresponda y
esté enfocada a ofrecer un resultado satisfactorio para esta búsqueda
relevante con un volumen no trivial, pero se tiene suficiente
contenido único con su oferta —de productos, servicios,
descripciones— que pueden usarse para crearla, sin generar
contenido pobre o duplicado, ofreciendo una experiencia de usuario
positiva al ofrecer al visitante lo que está buscando de forma efectiva
y específica.
Para identificar problemas de duplicación de contenido pueden usarse
rastreadores SEO como OnPage.org que como se ve en la Figura 5.4 detecta
qué páginas están mostrando el mismo contenido entre ellas, que puede ser
considerado como duplicado, indicándolo para que así podamos ya sea
decidir optimizarlo para que sea único y descriptivo por página o evitar
indexarlo en caso que se identifique que no existe una demanda de
búsqueda por parte de los usuarios o que ya está siendo atacado por otra
página que es la original:
Figura 5.4. Duplicación de contenido en OnPage.org.
De igual forma, otro problema fundamental para el posicionamiento
relacionado con la duplicación o canibalización de contenido es el poco
contenido de texto que se muestre en cada una de las páginas —para
evitarlo es recomendable incluir como referencia mínima al menos unas
500 palabras únicas (que no estén duplicadas ni interna ni externamente a la
Web) y descriptivas de texto indexable y relevante, enfocándose a los
términos a atacar en cada una—. La problemática del contenido pobre en
las páginas del sitio se puede identificar a través de herramientas
especializadas al análisis de contenido como Siteliner o Safecont, así como
rastreadores SEO que incluyen funcionalidad específicas para identificar
contenido pobre además de duplicado, como lo hace OnPage. org en la
Figura 5.5:
Otro criterio importante a tomar en cuenta en la organización de contenido
es el formato del mismo y el tipo de términos que se atacará con cada uno:
Identificar cuál es el mejor formato de contenido (texto, imágenes o vídeos)
y tipo e página a crear para ofrecer al usuario determinada información y
posicionar por los términos relevantes: transaccionales, investigacionales o
navegacionales.
En el caso de los términos transaccionales lo común y más relevante para
satisfacer la intención del usuario es atacarla con una página de producto o
servicio o categorías con listados de los mismos que sirva para que el
visitante directamente pueda convertir —comprar, registrar, solicitar— en
ella, y satisfacer su necesidad de búsqueda (así como el objetivo de la Web
de vender).
Sin embargo, en otros casos, para búsquedas investigacionales, cuando el
usuario busca “cómo” hacer algo relacionado con nuestro producto o
servicio, la mejor forma de responder a esta consulta podría ser con un
vídeo o un gráfico que explique de forma más detallada y fácil la
información buscada, y que no se ataque con una categoría de producto o
servicio, pero con un área de soporte de usuario, una comunidad o blog, por
ejemplo.
Figura 5.5. Contenido único en OnPage.org.
Es por ello fundamental que se identifique el mejor tipo de contenido a
crear y optimizar para atacar de forma efectiva cada tipo de búsqueda en
caso que no sea directamente una consulta transaccional.
Por ejemplo, en la Figura 5.6 se posiciona para el concepto de
“Financiación directa” con una entrada de un blog que explica en qué
consiste.
Figura 5.6. Entrada de blog post posicionando para la búsqueda sobre el concepto de financiación
directa.
Finalmente, no hay que perder de vista que más allá de crear y optimizar
contenido para que el buscador lo identifique como relevante, el objetivo es
realmente ofrecer contenido que nuestra audiencia encuentre atractivo,
único y útil, que responda a su búsqueda, por lo tanto, la mejor forma de
asegurarse que se cumple con los requisitos de calidad de contenido 36 de
los buscadores es preguntar:
¿El contenido está libre de errores, brinda información de calidad,
actualizada, es consistente y da información verídica?
¿El contenido es relevante y útil de cara a la temática que trata?
¿El contenido responde a la consulta que el usuario hace sobre la
misma de forma efectiva?
¿El contenido es único y no es una duplicación de otras Webs o
páginas?
¿El contenido es lo suficientemente atractivo y relevante para que el
usuario lo comparta con otros?
¿El contenido es atractivo y se ve bien en los distintos dispositivos?
¿El contenido ayuda a establecer una imagen de autoridad y prestigio
de tu Web y marca?
Si la respuesta a todas estas preguntas es sí, y el contenido por un lado es de
un gran valor hacia el usuario, y por otro, si se optimizan aquellos
elementos claves del mismo que permitan al buscador identificar de forma
más fácil su relevancia, tendremos una gran parte del trabajo hecho para su
posicionamiento.
OPTIMIZACIÓN DE CONTENIDO
Una vez que se ha identificado con qué páginas o áreas del sitio Web se
atacarán las palabras clave o términos identificados como relevantes y para
las que se desee enfocar el proceso SEO, el siguiente paso será proceder a
su optimización para:
Desarrollar su relevancia semántica hacia los términos objetivo
creando contenido que sea descriptivo e incluya las palabras que los
usuarios usan y para los que se desea posicionar.
Maximizar la visibilidad de la página en los resultados de búsqueda
del buscador, para que sobresalga sobre la competencia.
Ofrezca de forma efectiva la información específica que el usuario
está buscando permitiendo que satisfaga su necesidad de información
y alcance el objetivo de conversión establecido para el mismo.
Existen ciertas áreas o elementos fundamentales del contenido de las
páginas que deben de ser optimizados incluyendo la palabra clave objetivo
para potenciar su relevancia, que pueden verse en la Figura 5.7 y que se
describirán a continuación:
Figura 5.7. Áreas críticas de las páginas Web que deben ser optimizadas para aumentar su relevancia
de cara a las palabras clave a posicionar.
Las URLs
Son un elemento muy importante a optimizar no sólo por su influencia en el
posicionamiento de la Web sino además por su visibilidad de cara al
usuario. Las URLs deben de ser:
Descriptivas, relevantes, cortas, y en el mismo idioma que el
contenido que se muestra, incluyendo la palabra clave más
representativa de cada página en la dirección de la misma.
Reflejar la organización del sitio a través de niveles de directorios y
subdirectorios, sin sobrepasar los 3-4 niveles de profundidad como
máximo.
Usar únicamente minúsculas y evitar caracteres especiales o
parámetros.
Separar las palabras claves en las URLs con guiones (-) de
preferencia.
Un ejemplo de URL que sigue con estas directrices es la de subcategorías
de Vestidos de Zalando: zalando.es/vestidos-
informales/,zalando.es/vestidos-vaqueros/ o la URL de la sub-categoría de
zapatos de traje para hombre:
Figura 5.8. Ejemplo de URL optimizada.
Son URLs cortas, descriptivas, que usan las palabras clave más relevantes
de cada página, usan guiones medios para separar los términos y están en
minúscula.
Una URL no optimizada sería: zalando.es/id-1234/vestidos/abcd/?hl=123
ya que no estaría incluyendo los términos relevantes en las URLs sino
usando IDs y parámetros en vez de estos, de forma no jerárquica.
El título (la etiqueta <title> en el HTML)
Los títulos de las páginas además de influir en su posicionamiento desde un
punto de vista de relevancia, son un elemento muy visible en los resultados
de búsqueda de cara a los usuarios, por lo que es crítico que se optimicen
para que:
Sean relevantes, descriptivos y únicos —específicos— para cada una
de las páginas del sitio.
Sean diferentes y complementarios a las meta descripciones.
Incluyan las palabras claves más importantes de la página siempre al
inicio del título.
Incluyan al final el nombre del sitio o la marca.
Sean claros y concisos, ya que sólo se muestran los primeros 56-70
caracteres incluyendo espacios, por lo cual es importante mantenerlos
por debajo de esa longitud.
Por ejemplo, en la siguiente Figura se puede ver cómo el título de la página
de Zapatos de traje para hombre está optimizado incluyendo la palabra
clave específica a posicionar al inicio, y el nombre de la marca al final.
Figura 5.9. Ejemplo de título optimizado.
Otro ejemplo, para las páginas internas de localidad de una Web de
alquileres vacacionales que se deseen posicionar para los patrones de
búsquedas del tipo “Alquiler vacacional en X” o “Alquileres Vacacionales
en Y” u “Ofertas de Alquileres Vacacionales en Z” el título optimizado
podría ser:
Alquileres Vacacionales en <Nombre Ubicación>: +3.000 Ofertas
con Marca
Un mal título sería aquel que no incluyese la palabra clave a posicionar de
cada localidad al inicio o incluyese en su lugar el nombre de la marca de la
Web en vez de la palabra clave específica de cada página.
La Meta Descripción
Aunque las meta descripciones no sean un factor de posicionamiento son
altamente visibles en los resultados de los buscadores y sirven como texto
descriptivo que llama la atención de los usuarios, invitándolos a entrar a
cada una de las páginas.
Por ello, las meta descripciones deben:
Ser únicas, descriptivas y relevantes para cada página.
Ser complementarias y extender la información del título.
Añadir un llamado a la acción invitando a los usuarios a entrar a la
página y conocer más sobre su contenido.
Tener un máximo de 156-160 caracteres de longitud, incluyendo
espacios, ya que los buscadores sólo muestran el mismo.
Por ejemplo, una meta descripción optimizada y complementaria para el
título de las páginas de localidades de alquileres vacacionales sería:
No te pierdas los mejores apartamentos vacacionales en <Nombre de
Ubicación> a los mejores precios con Marca. ¡Descúbrelos ya!
Otro ejemplo, es la meta descripción de la página de zapatos de traje para
hombre de Zalando que puede verse en la Figura 5.10, en la que se incluyen
argumentos y llamados a la acción de forma atractiva para atraer al usuario.
Figura 5.10. Ejemplo de meta descripción optimizada.
Los encabezados (etiquetas H1, H2, H3, etc.)
Los encabezados se refieren al contenido mostrado con las etiquetas <h1>,
<h2>, <h3> usados para los titulares y sub-titulares del contenido de las
páginas, y que tanto los usuarios y buscadores toman en cuenta para
identificar la temática del contenido del mismo.
Figura 5.11. Ejemplo de Uso y Optimización de Etiquetas de Encabezado.
Por ello se recomienda optimizar el texto incluido en las etiquetas de
encabezado, específicamente el H1 para el título principal, H2, H3, H4 para
los subtítulos de siguiente nivel en importancia, con términos relevantes y
descriptivos para cada página.
Por ejemplo, en la Figura 5.11 se muestra cómo se usa como encabezado
principal de la página de “zapatos de traje para hombre” esta misma frase; y
como sub-titulares H2, frases relacionadas y complementarias, siempre
relevantes: “Un estilo masculino impecable”, “La imagen masculina se
mide por la calidad de su calzado”, “La calidad y la variedad de una tienda
online de prestigio internacional”.
El cuerpo del contenido
Es fundamental que cada una de las páginas del sitio incluya contenido de
texto que sea:
Además de accesible e indexable por parte del buscador, visible de
cara al usuario.
Altamente relevante y descriptivo para la temática que aborda usando
de forma natural las palabras clave por la cual se desea posicionar.
Único por página, que no esté duplicado ni internamente en otras
páginas del sitio, ni externamente en otras Webs.
Al menos 500 palabras de contenido de texto específico por página,
para evitar que se identifique como “pobre” o duplicado con otro.
Que conecte y responda al interés de información del usuario, así
como al objetivo de negocio de la página en específico.
Usualmente esto no debería de ser un problema cuando se trata de un post,
un artículo o página a nivel de producto que por naturaleza son “ricos” en
contenido y deben de ser optimizados para potenciar su relevancia de cara a
las palabras clave objetivo.
Sin embargo, se convierte en un reto en páginas de listados de productos en
las que se incluye mucho contenido que puede ser similar al de otras
páginas (por ejemplo, las sub-categorías hijas) y que debe de ser
diferenciado con un texto único y original para el que hay espacio limitado,
pero para el que se debe identificar uno para poder incluir de forma que
también sea útil al usuario, como se puede ver en la figura 5.12.
Figura 5.12. Texto descriptivo en listado de productos de Zalando.
Un reto mayor tienen aquellas Webs cuyo modelo de negocio o
funcionamiento requieren que no todo su contenido esté totalmente
accesible tanto de cara al usuario como los buscadores (es fundamental que
se muestre siempre el mismo contenido a ambos para seguir las buenas
prácticas de contenido de Google y evitar ser penalizados).
En este caso se recomienda seguir el enfoque que usan Webs como
LinkedIn o Hubspot, que muestran por defecto sólo una primera parte del
contenido (en el caso de LinkedIn la información del perfil del usuario y en
el caso de Hubspot de guías, estudios o artículos que publican) y para ver el
resto pide al usuario que se registre.
Sin embargo, es importante señalar que para poder posicionar para términos
medianamente competitivos es esencial ofrecer una cierta cantidad de
contenido siempre visible (sin ser ocultado por CSS, scripts o que requieran
una acción del usuario para mostrarse y que pueden no ser tomados en
cuenta por el buscador).
Figura 5.13. Ejemplos de páginas que muestran cierto contenido en abierto, aunque requieran
registro para verlo por completo.
¿Cuánto contenido mostrar para ser competitivo? En esto caso lo mejor es
siempre verificar el contenido que está mostrando la competencia que se
posiciona en los primeros lugares para las palabras clave a atacar, y
asegurar que se muestra siempre más y mejor contenido que ellos,
aprovechando capitalizar sobre cualquier carencia que tengan.
Las Imágenes: Descripción ALT, el nombre del archivo y el texto
alrededor de las imágenes
Las fotos o gráficos de tu Web no sólo son útiles para hacer tu contenido
más atractivo, ilustrar una idea para facilitar su comprensión o captar la
atención del usuario, sino que además ofrecen la oportunidad de atraer
visibilidad y tráfico adicional a través de la búsqueda de imágenes y
resultados universales de Google que muestran imágenes para cierto tipo de
búsquedas.
Como se puede ver en la Figura 5.14 es recomendado optimizar las
imágenes a través de las siguientes acciones:
Incluyendo en la descripción ALT (el atributo “alt” que puede
incluirse en la etiqueta <img> en el HTML) de cada una de ellas un
texto único y relevante que las describa, usando las palabras clave
para las cuales se desee posicionar en cada caso. Por ejemplo, si
incluye una foto sobre Las Ramblas en Barcelona y se quiere
posicionarla cuando Google muestre imágenes relacionadas a esta
búsqueda, entonces se deberá incluir en la descripción ALT de la
misma: “Las Ramblas, Barcelona”.
Añadiendo un nombre descriptivo en el archivo de las imágenes —
cualquiera que sea este, png, jpg, gif, etc.— en vez de un texto
genérico o no descriptivo. Por ejemplo, la foto de las Ramblas podría
llamarse: “ramblas-barcelona.jpg”. Un nombre no descriptivo sería
“123-abc.jpg”.
Insertando la imagen alrededor de un texto que la describa, que
incluya de forma relevante las palabras clave para lo que se la desee
posicionar. Por ejemplo, en la Figura 5.14 vemos cómo la imagen se
inserta a la izquierda y encima de textos que la describen de forma
relevante.
Usando etiquetas de marcado estructurado para describir el tipo de
objeto y la información de la imagen con el estándar de Schema.org,
que en el caso de las imágenes será específicamente el
ImageObject 37 , usado por los buscadores como Google para
identificar el significado de la información de las imágenes incluidas
en la Web.
Generando un XML Sitemap de imágenes 38 —que debe ser a su vez
enviado a través del Google Search Console—, ya que como se
describió en el capítulo anterior servirá para notificar al buscador de
la existencia de los archivos de imágenes en este caso, así de su
información básica.
Figura 5.14. Optimización de imágenes.
Los vídeos: El título, el nombre de archivo y texto alrededor de los
vídeos
De forma similar a las imágenes, los vídeos ofrecen una gran oportunidad
para crear contenido que sea fácil de consumir, atractivo y responda mejor a
la necesidad de búsqueda del usuario, así como de posicionar en aquellos
resultados para los que Google muestra vídeos directamente.
Como se puede ver en la Figura 5.15 es recomendado optimizar los vídeos a
través de las siguientes acciones:
Optimizar los elementos de texto únicos para el vídeo: título,
descripción o transcripción del mismo, etc. que incluyan los términos
relevantes para los que se desea posicionar.
Optimizar el nombre del archivo del vídeo para que sea relevante,
incluyendo palabras clave específicas para las que se desee
posicionar.
Utilizar marcado estructurado cuando se incluya el vídeo en el
HTML, usando VideoObject 39 para especificarlo.
Generar un vídeo XML sitemap 40 que permita notificar a los
buscadores de la existencia de los mismos y sus especificaciones
generales.
Figura 5.15. Optimización de vídeos.
A nivel general podemos ver cómo la optimización del contenido permitirá
desarrollar su relevancia de cara a aquellos términos de búsquedas para los
cuales se desea posicionar, aunque además debemos también garantizar que
el contenido en sí ofrezca un valor al usuario, se enfoque en responder a su
consulta, sea atractivo para así incentivar que se comparta, etc. como se
puede ver en la Figura 5.16 de Moz 41 .
Figura 5.16. Características de una página perfectamente optimizada.
USO DE MARCADO ESTRUCTURADO
Es recomendable hacer uso de marcado estructurado —un estándar para
especificar el significado de los objetos que se incluyen en las Webs, en este
caso, el contenido— y que Google usa en ciertos casos para dar una mayor
visibilidad a las páginas en los resultados de búsquedas través de los
“fragmentos enriquecidos”, como hace aquí con Amazon:
Figura 5.17. Resultado de búsqueda con Fragmentos Enriquecidos de Valoraciones.
Algo similar ocurre cuando Google identifica tu negocio u organización
como una entidad y genera para el mismo un resultado en el ”knowledge
graph” (o gráfico de conocimiento), como se puede apreciar en la Figura
5.18, que puede ser personalizado con el uso de marcado estructurado:
Figura 5.18. Resultado de búsqueda con Knowledge Graph para CNN.
Para incluir el marcado estructurado en nuestras Webs se deberá hacer uso
de un vocabulario estándar especificado en schema.org 42 ya sea con
microdatos o JSON-LD para especificar elementos como:
Estructura del Sitio: Las migas de pan, la caja de búsqueda en
sitelinks, tu nombre en los resultados de búsqueda.
Presencia autorizada: Contactos corporativos, logos, perfiles sociales.
Contenido creativo: Artículos, música, recetas, opiniones, programas
de TV & películas, vídeos
Comercio: Negocios locales, eventos y productos.
Para su implementación Google ofrece una documentación bastante
extensiva mostrando ejemplos con las distintas alternativas del código en
JSON-LD y Microdatos 43 :
Figura 5.19. Especificación para el uso de marcado estructurado de Google.
Así como una herramienta 44 con la que se permite validar fácilmente la
correcta implementación del marcado estructurado en cualquier página
como se puede ver en la Figura 5.20.
Figura 5.20. Herramienta de validación de marcado estructurado.
Google además ofrece un informe en Google Search Console que se puede
ver en la Figura 5.21 a través del cual también informa de errores que
podamos estar generando con el marcado estructurado que se ha
implementado en la Web.
Figura 5.21. Errores de Marcado Estructurado en Google Search Console.
Es importante estar alertas y verificar más tipos de datos que sean
soportados por Google con el paso del tiempo, para los cuales se brinde una
visibilidad adicional en los resultados de búsqueda y así identificar
oportunidades para maximizar la visibilidad de nuestro contenido —además
de dar más señales de relevancia— en los resultados del buscador.
34 searchengineland.com/library/google/google-panda-update
35 searchengineland.com/google-panda-is-now-part-of-googles-core-ranking-signals-240069
36 support.google.com/webmasters/answer/35769?hl=es
37 schema.org/ImageObject
38 support.google.com/webmasters/answer/178636?hl=es
39 schema.org/VideoObject
40 developers.google.com/webmasters/videosearch/sitemaps
41 moz.com/blog/visual-guide-to-keyword-targeting-onpage-optimization
42 schema.org/
43 developers.google.com/search/docs/guides/
44 search.google.com/structured-data/testing-tool
6. Desarrollando la popularidad
de tu sitio Web
“No creas que lo eres, ten la seguridad.” — Matrix
CONCEPTO, IMPORTANCIA Y OBJETIVO DEL
DESARROLLO DE LA POPULARIDAD WEB
En la introducción del libro se comentó cómo Google fue el primer
buscador en tener en cuenta los enlaces como un factor de importancia o
popularidad de las páginas a través de su algoritmo llamado PageRank; lo
cual le permitió comenzar a mostrar resultados de mejor calidad que su
competencia hasta el momento: Una página no sólo debía de ser relevante o
estar optimizada para un determinado tema, sino además ser popular de cara
a este, una popularidad señalada por los enlaces desde otras Webs.
Debido a lo anterior, además de potenciar la creación y optimización de
contenido —y la consecuente relevancia del mismo para los términos que se
deseen posicionar— que conecte y responda a las búsquedas de los
usuarios, es fundamental potenciar la promoción de este contenido para que
otras Webs lo enlacen, así se desarrolle su popularidad, se llegue a convertir
en una autoridad en su sector; y Google priorice su posicionamiento con
respecto las otras páginas que, aunque puedan incluir contenido relevante,
no sean tan populares.
La creación de enlaces puede parecer menos compleja que la optimización
técnica o el desarrollo de contenido, pero lo cierto es que puede llegar a
representar un gran reto en un proceso SEO, sobre todo si se enfoca a una
industria muy competitiva, ya que esta no depende directamente de nosotros
(puesto que no se realiza en nuestra Web), sino de aquellos usuarios a
quienes les guste nuestro contenido, oferta, producto o servicio y decidan
referirse a él enlazándolo desde sus Webs.
Figura 6.1. La importancia de los enlaces como factor de popularidad en el SEO.
Figura 6.2. Caricatura del algoritmo de PageRank mostrando los enlaces entre las páginas como
votos entre las mismas.
Es necesario entonces no sólo identificar el perfil de enlazado de nuestra
Web para conocer su nivel de popularidad, tanto a nivel general de dominio
como de las páginas a nivel específico a posicionar; sino también
compararlo con el de nuestra competencia, los otros sitios que se enfocan a
posicionar para los mismos términos, ya que nuestro objetivo será verificar
cuál es la diferencia entre los mismos y el rol en el posicionamiento, para
así poder establecer un proceso de creación de enlaces que nos ayude a
desarrollar nuestra popularidad de forma efectiva para mejorar nuestro
posicionamiento. Hay que procurar, eso sí, seguir con las buenas prácticas y
directrices establecidas por los buscadores (de los que se hablará más
adelante) para evitar ser penalizados.
Sin embargo, no todos los enlaces tienen el mismo valor o son tomados en
cuenta por Google. Para que Google reconozca un enlace este debe de ser
ubicado en una página que sea rastreable e indexable (que no esté
bloqueada a través del robots.txt por ejemplo o no indexada a través de una
etiqueta meta robots “noindex”), y el mismo debe de ser implementado de
forma tal que sea rastreable en la página.
Figura 6.3. Anatomía de un enlace.
Para asegurar que un enlace sea rastreable este debe ser creado a través de
la etiqueta HTML <a href>, donde se incluye la URL de la página hacia la
que se está enlazando.
El texto del enlace que es pinchable, llamado “anchor text” debería de
incluir un término relevante que describa a la Web a la que apunta, ya sea su
marca o una palabra clave para la que se desee posicionar, en vez de un
término genérico, como “pincha aquí”. La optimización del “anchor text”
de un enlace debe ser vista como una oportunidad para indicar la temática
para la que la página enlazada es relevante y potenciar su popularidad hacia
la misma.
Por ejemplo, en la Figura 6.3 puede verse un enlace creado desde un
artículo de Buzzfeed hacia la página de Manara dentro del sitio de Behance,
a la que se le enlaza con su nombre “Manara Design Studio”.
Por otro lado, si se desea enlazar a otra página sin que se rastree el enlace y
sin pasarle de nuestra popularidad —es decir, enlazarlo sin que se tome en
cuenta como un voto o señal de popularidad— se puede hacer incluyendo el
atributo rel=”nofollow” a la etiqueta <a href> del enlace, como se puede ver
en la Figura 6.4.
Figura 6.4. Enlace con el atributo rel=”nofollow”.
Por regla general, como se muestra en el ejemplo anterior, el atributo
rel=”nofollow” se usa al enlazar a otras Webs o páginas de nuestro sitio al
que no se desea pasar popularidad pero que deben ser enlazadas por otro
tipo de razones, como las páginas de políticas de privacidad o la de alguna
Web colaboradora a la que se deba enlazar desde todos los pies de página de
nuestro sitio.
Aunque el atributo rel=”nofollow” puede resultar útil cuando enlacemos a
otros, lo cierto es que es fundamental verificarlo también cuando se nos
enlaza desde otras Webs, para así valorar si se está obteniendo la señal o
referencia de popularidad esperada a través de los enlaces que se crean
hacia a nuestra Web, ya que a pesar de que se nos creen cientos o miles de
enlaces con el atributo rel=”nofollow” poca popularidad se pasará a través
de los mismos.
De igual forma, al valorar el nivel de popularidad de nuestra Web y el de la
competencia, es importante verificar el porcentaje de enlaces que se han
creado usando el atributo rel=”nofollow” en cada caso, debido al impacto
que tendrá en el nivel de popularidad que se ha pasado.
CRITERIOS DE LA VALORACIÓN DE LA
POPULARIDAD DE UNA WEB
Además del atributo rel=”nofollow” existen muchos otros criterios que los
buscadores toman en cuenta para valorar los enlaces, con el objetivo de
establecer no sólo el nivel de popularidad que transmiten, sino también su
naturalidad, es decir, que se tratan de “votos o referencias espontáneas” y
no se está manipulando de forma artificial la popularidad del sitio.
Entre los criterios más importantes a tomar en cuenta para valorar los
enlaces se encuentran:
Su Naturalidad:
Para que un voto pueda representar una señal real de popularidad no
debería de ser “comprado” o ser consecuencia de algún tipo de
esquema cuyo objetivo sea incrementar de forma artificial la
popularidad de la Web.
La naturalidad es quizás el criterio más fundamental para valorar los
enlaces y se refiere a la espontaneidad de los mismos, ya que deben
ser señales reales de popularidad.
Usualmente los enlaces que son creados de manera artificial muestran
algún tipo de patrón, algunos más obvios que otros: Desde publicarse
en masa en sitios enlazados entre ellos, o que comparten IP (o clase
C), o que muestran el mismo contenido, texto muy similar, el mismo
diseño, template o CMS, con el enlace en la misma ubicación en
todas las páginas, usando el mismo anchor text y URL enlazante de
forma masiva, o enlazando desde Webs que no están relacionadas,
por ejemplo, en otro idioma, o que muestran una calidad de contenido
muy bajo o son directamente “granjas de enlaces” cuyo único
propósito es publicar enlaces y sin ningún valor adicional.
Figura 6.5. Criterios de valoración de enlaces.
Identificar el “link spam” (o spam relacionado con los enlaces, en el
cual se crean los mismos de forma artificial a través de redes de
compra-venta o intercambio, ya sea de forma manual o automática a
través de software, entre otras prácticas) es uno de los grandes retos
de los buscadores, y por ello se establecen buenas prácticas y
directrices para la creación de los mismos, así como filtros en sus
algoritmos para identificarlos o revisiones para hacerlo de forma
manual.
En el caso de Google se pueden encontrar ejemplos de los escenarios
más comunes a evitar en sus directrices acerca de los “Esquemas de
Enlaces” 45 , como se puede ver en la Figura 6.6.
Figura 6.6. Especificación de Esquemas de Enlaces por Google.
De igual forma, Google ofrece formas de informar sobre la existencia del
mismo a través de formularios de “informes de spam” 46 que se pueden
encontrar en su Web y que cualquier usuario puede usar para notificar de su
existencia.
Como resultado de los envíos de estos informes Google puede hacer
revisiones y penalizaciones manuales —las cuales se notifican a través de
mensajes por el Google Search Console— en caso de encontrar que la Web
está manipulando los enlaces.
Google también combate el link spam a través de sus algoritmos, y en 2012
lanzó el llamado “Penguin Update” 47 (actualización del pingüino) enfocado
a identificar patrones de enlaces no naturales y filtrar o penalizar a las Webs
que hacen uso de ellos para mejorar de forma artificial su posicionamiento.
Figura 6.7. Formulario de Informe de Spam de Google.
Figura 6.8. Anuncio y actualizaciones de Penguin.
En este caso no se realiza una notificación a través del Google Search
Console por lo cual se debe de verificar la correlación de fechas de la caída
de posiciones, los términos y páginas con pérdidas, así como el estado de
los enlaces apuntando a ellas con la del lanzamiento de la actualización
(que Google suele notificar). Recientemente, y después de 2 años desde la
última actualización, el pasado 23 de septiembre Google hizo la más
reciente actualización de Penguin e informó que comenzaría a ejecutarse en
tiempo real (en vez de realizarse en actualizaciones periódicas y por lo
tanto, ya no comentaría sobre las actualizaciones) así como a enfocarse a
nivel más granular de páginas en vez de afectar a una Web entera. Debido a
esto es dentro de lo que cabe aún más crítico mantener una monitorización
del enlazado externo hacia nuestra Web de forma constante.
Cuando una Web ha sido afectada por una penalización ya sea manual o
algorítmica debido a la existencia de enlaces no naturales, el siguiente paso
es identificar cuáles son estos enlaces no naturales que han afectado
negativamente y eliminarlos (aunque veremos después cómo este proceso
debe hacerse siguiendo ciertos criterios para compensar la pérdida de estos
enlaces y evitar perder la popularidad total del sitio).
Sin embargo, esto resultaba ser un proceso costoso, no únicamente en
tiempo y esfuerzo en contactar con la Web, sino también porque en algunos
casos las Webs enlazantes pedían un pago para eliminarlos.
Debido a esto, en Octubre de 2012 Google lanzó la herramienta de
“Desautorización de Enlaces” 48 desde la que se recibe una notificación de
los sitios o páginas desde las que no se desea que se tomen en cuenta
enlaces que pueden estar apuntando hacia nuestra Web y que en algunos
casos pueden no haber sido ni creados por nosotros mismos.
Figura 6.9. Herramienta de Desautorización de Enlaces de Google.
Entre los criterios principales a ser tomados en cuenta para valorar los
enlaces se encuentran los siguientes:
El Volumen:
Cuantos más votos tengas, más popular serás. En el caso de los
enlaces aunque las otras características también tienen un papel
importante, a nivel general buscamos atraer más enlaces naturales y
referencias de popularidad para poder ser competitivos.
Su Popularidad:
¿Qué es mejor: un enlace desde una Web de alta popularidad o diez
enlaces de varias de poca popularidad? Dependerá de la diferencia de
popularidad entre las mismas.
El algoritmo de PageRank tiene una base logarítmica (la dificultad de
pasar de un PageRank 7 a 8 es muy superior a la dificultad de pasar
de un PageRank 4 a 5) y aunque ahora se ha dejado de notificar sobre
la actualización de esta métrica a través de la barra de Google,
herramientas con sus propios índices de enlaces proveen métricas
alternativas que pueden tomarse como referencias para valorar la
popularidad de los enlaces con una base también logarítmica, por
ejemplo, la Autoridad de Dominio y de Página de Moz.
El Uso de Nofollow:
De poco servirá tener miles de votos si su popularidad no se toma en
cuenta. Aunque tengas miles de enlaces si estos no transfieren de su
popularidad, no beneficiarán tu posicionamiento.
Es por eso que cuando se enlace a tu Web preferirás que sean enlaces
que sí se sigan (sobre todo cuando vengan de Webs de gran
popularidad y autoridad en el sector) y no incluyan el atributo
rel=”nofollow”.
La Relevancia:
Los votos hacia nuestro contenido deben de venir de fuentes
relacionadas, que aborden el mismo tipo de contenido, que se
enfoquen al mismo sector y audiencia, y que estén en el mismo
idioma y país.
Lo natural será que los enlaces a la página vengan de Webs
relacionadas o que tengan cosas en común.
La Diversidad:
¿Qué tiene un mayor valor: un voto de diez fuentes diferentes o diez
votos de la misma fuente? ¿Es mejor que te vote la misma persona
diez veces o diez personas diferentes una vez? En este caso, la
diversidad se impone.
Su Ubicación:
¿Tiene el mismo valor obtener un enlace visible desde el cuerpo del
contenido que un enlace prácticamente oculto en el pie de página?
Por supuesto que no.
Es mejor pensar en atraer los llamados enlaces “editoriales”; aquellos
que se incluyen dentro del propio contenido de páginas específicas de
un sitio, y por lo tanto ofrecen una mayor señal de naturalidad. Es
preferible utilizar estos a los enlaces “sitewide”, es decir, los que se
incluyen en cada una de las páginas del sitio pero desde el pie de las
páginas o desde la barra lateral (o áreas que se repiten en toda la
Web), y que son poco visibles y de un impacto mucho menor desde el
punto de vista del usuario.
Los Términos en los Anchor Text:
Si deseas posicionarte por el término “pincha aquí” entonces es
recomendable que atraigas enlaces con esta palabras clave como
anchor text. Sin embargo; si deseas posicionarte para términos
relacionados con tu servicio o producto, deberías atraer enlaces
indicando que eres popular para los mismos y por lo tanto, que
incluyan estos términos como anchor text.
La Confianza:
“Dime con quién andas y te diré quién eres” — Si te enlazan sólo
desde Webs con contenido de baja calidad y que tienen problemas de
spam, los niveles de confianza que darán a tu propio sitio serán bajos.
Se recomienda siempre que al establecerse un proceso de creación de
enlaces se enfoque de cara a atraer enlaces desde fuentes relevantes y
de autoridad, que transmitan confianza.
La Velocidad:
Los enlaces deberían ser la respuesta a la publicación de un
contenido, información u oferta que has publicado en tu Web y que
ha gustado y conectado con el usuario, y que este en respuesta, lo
comparte, enlazándolo y referenciándolo de esta forma.
Siguiendo esta lógica, es natural entonces que si publicas y
promueves de forma frecuente y continua información en tu Web que
satisface los intereses y necesidad del usuario, esta información se
comparta frecuentemente. Por ejemplo, tu Web atraerá enlaces de
forma recurrente, algunos de ellos creados a una velocidad muy alta,
si el contenido que has publicado se ha viralizado. En este escenario
entonces, es conveniente atraer enlaces que se crean a alta velocidad
de forma frecuente.
Sin embargo, si no actualizas nunca el contenido de tu Web, —y en
consecuencia, apenas te enlazan— y de pronto lo comienzan a hacer
de un día para otro sin haber publicado nada, esta “alta velocidad” en
el enlazado puede representar una señal de poca naturalidad en la
creación de estos enlaces.
El objetivo al realizar una auditoría de enlaces no sólo es identificar estas
características para valorar los enlaces que apuntan hacia tu propia Web,
sino también hacerlo con los enlaces que apuntan hacia tu competencia para
poder comparar los mismos e identificar la diferencia existente para poder
establecer la necesidad, los objetivos y la estrategia a seguir para la creación
de enlaces en el proceso SEO, permitiendo que desarrolles la popularidad
de tu Web de forma tal que te apoye a alcanzar el posicionamiento deseado
y que no sea una desventaja frente a tu competencia.
Figura 6.10. Comparación de las características de enlaces vs. la competencia.
Este análisis y comparativa de enlaces de nuestra Web con respecto a la
competencia que nos permitirá establecer objetivos y estrategia se realizará
al comenzar el proceso SEO a través de una auditoría de enlaces, y se
monitorizará durante el desarrollo del mismo para poder identificar los
cambios en su comportamiento, resultados alcanzados de las acciones
ejecutadas y consecución de los objetivos establecidos.
DESARROLLANDO UNA AUDITORÍA & PROCESO DE
CREACIÓN DE ENLACES
La auditoría de enlaces es sólo el primer paso del proceso de creación de los
mismos, que se suele realizar de forma iterativa e incremental conforme se
va desarrollando el proceso SEO, y se divide en las etapas que se pueden
visualizar en la Figura 6.11 que se detallarán a continuación:
Figura 6.11. Pasos para un proceso de auditoría y creación de enlaces.
Identificación de enlaces
Enfocado a obtener el listado más completo de enlaces (y las características
de los mismos: Anchor text, página enlazante, popularidad de dominio y
página desde donde se enlaza, ubicación del enlace, etc.) que apunten hacia
tu Web y la competencia.
Para ello se recomienda usar varias fuentes, desde herramientas e índices de
enlaces que son ofrecidos por terceros que puedes usar también para
obtener los enlaces de tu competencia, así como los propios datos que
Google brinda de forma directa a través del Google Search Console, para
que al consolidarse ofrezcan una visión lo más completa posible de los
enlaces existentes hacia tu Web vs. la competencia.
Entre otras fuentes, las principales herramientas que ofrecen los enlaces
entrantes son:
Google Search Console
Puede ser considerada como la fuente “oficial” ya que la ofrece el
propio Google, sin embargo, no se incluyen todos los enlaces que
Google toma en cuenta, sobre todo para sitios con un gran volumen.
El Google Search Console ofrece información sobre los sitios que
más enlazan a tu Web y sobre las páginas más enlazadas de la misma
y, también, sobre las palabras clave más usadas para enlazarlos. Sin
embargo, no brinda ninguna información sobre la popularidad ni otras
características adicionales de estos enlaces, por lo que es fundamental
que la completemos con la de otras herramientas.
Figura 6.12. Informe de “Enlaces a tu sitio” en Google Search Console.
Majestic
Majestic tiene uno de los índices más completos de enlaces para
cualquier sitio, además de filtros y funcionalidades que facilitan la
comparación de los mismos.
Así mismo, ofrece además información sobre aquellos que han sido
eliminados recientemente; su temática, sus propias métricas de
popularidad y la confianza de sus enlaces.
Figura 6.13. Listado de enlaces entrantes ofrecido por Majes tic.
Open Site Explorer
Aunque Open Site Explorer de Moz no tiene el índice más completo
de enlaces, sí que ofrece una buena referencia de aquellos que son
más importantes y su nivel de autoridad con las métricas de Page
Authority a nivel de página y Domain Authority a nivel de dominio.
Figura 6.14. Enlaces entrantes en Open Site Explorer.
CognitiveSEO
CognitiveSEO integra sus propios datos y los completa con el índice
de Majestic, presentándolos además a través de una de las interfaces
más amigables, con segmentos y filtros fáciles de usar. A su vez,
ofrece una funcionalidad para identificar y valorar la “naturalidad” de
los enlaces, además de brindar su propia métrica de influencia a nivel
de popularidad de los mismos.
Una de las grandes ventajas de CognitiveSEO es que, además,
permite importar enlaces adicionales desde cualquier otra fuente, por
ejemplo, Google Search Console, Open Site Explorer o cualquier
herramienta en formato CSV.
Figura 6.15. Enlaces entrantes a nivel de dominio en CognitiveSEO.
Otras herramientas: Ahrefs, Sistrix & SEMrush
Las suites SEO que ofrecen múltiples módulos, como Ahrefs, Sistrix
o SEMrush también ofrecen información sobre los enlaces de la Web
que desees.
El objetivo será, en este caso, complementarlos de forma tal que
puedas tener la visión más completa de los mismos para valorar tanto
la popularidad de tu propia Web como la de tu competencia, para
establecer la diferencia entre las mismas y una estrategia en base a
ello.
Figura 6.16. Enlaces entrantes en ahrefs.
Análisis de enlaces
Una vez obtenidos los enlaces, se procederá a valorarlos a través de los
criterios ya mencionados: nivel de popularidad, diversidad, optimización de
cara a las palabras clave a posicionar, ubicación, etc.
Para poder hacer una valoración eficaz de los mismos, es deseable no sólo
depender de una sola fuente de enlaces, sino complementar la información
de la mayor cantidad de fuentes que sea posible, consolidando y analizando
a través de la misma herramienta.
Por ejemplo, se pueden obtener los enlaces desde Google Search Console,
CognitiveSEO & Open Site Explorer, Sistrix, SEMRush o Ahrefs,
consolidándolos a través de URLProfiler, herramienta que permite importar
desde varias fuentes y obtener para los mismos las métricas de popularidad
de Majestic, Moz o Ahrefs, haciendo uso de sus APIs (para las cuales
deberás obtener acceso para usarlas):
Figura 6.17. Configuración para el Análisis de Enlaces con URLProfiler.
Figura 6.18. Resultado de consolidación de métricas de enlaces con URLProfiler.
El resultado de usar URLProfiler para consolidar el análisis de todos los
enlaces será que se obtendrá en Excel un listado de los mismos con las
métricas de popularidad seleccionadas.
Algo similar se puede hacer con CognitiveSEO (importando los enlaces
desde cualquier fuente en formato CSV), que permitirá además obtener no
sólo las métricas de popularidad propias de los enlaces, sino también de
Majestic, y analizarlos con una interfaz amigable un informe segmentado y
accionable que posibilita comparar los enlaces fácilmente con los de la
competencia.
Figura 6.19. Funcionalidad para importar enlaces externos con CognitiveSEO.
Un beneficio adicional de CognitiveSEO es que se puede elegir entre un
análisis puntual y una campaña de enlaces recurrente que además brindará
información sobre los nuevos enlaces identificados y los eliminados, tanto
hacia tu propia Web como hacia la de la competencia.
Figura 6.20. Listado de Enlaces apuntando hacia un dominio con las métricas principales.
Por ejemplo, con CognitiveSEO se puede con facilidad:
Visualizar la evolución de enlaces en el tiempo, el volumen y nivel de
popularidad.
Figura 6.21. Perfil de Evolución de Enlaces en el Tiempo de un Dominio.
Ver los dominios enlazantes, el número de enlaces e influencia a
nivel de popularidad de cada uno, si los enlaces son nofollow o
dofollow, y si se enlaza desde todas las páginas del sitio (enlaces
sitewide) o desde páginas puntuales. También se puede ver la última
vez que se identificó el enlace.
De esta forma se puede identificar quién te está enlazando, qué tipo
de Webs son las que más lo hacen, cuáles son los enlaces más
importantes hacia tu Web (para así monitorizarlos más de cerca).
Figura 6.22. Dominios enlazantes a una Web.
Las páginas del sitio que tienen más dominios enlazantes y enlaces
apuntando a ellas, lo cual además permite identificar qué tipo de
contenido es el más referido y atractivo de cara al usuario.
Figura 6.23. Páginas más enlazadas de un sitio.
La ubicación de los enlaces o el ratio de los enlaces que utilizan la
marca del sitio con respecto a términos comerciales (dando opción de
categorización directamente en la herramienta).
Figura 6.24. Ratio de Anchor Texts de marca vs. términos comerciales.
El porcentaje de enlaces de influencia alta, media o baja o que no
pasan popularidad debido a que son nofollow, así como el ratio de
enlaces nofollow vs. dofollow, o aquellos que han sido eliminados
recientemente.
Figura 6.25. Nivel de Influencia de Popularidad de los enlaces.
Las IPs de las que provienen los enlaces, comprobando si son enlaces
sitewide o puntuales provenientes de páginas específicas de los sitios.
Figura 6.26. Fuente de enlaces por IPs & Enlaces a nivel de todo el sitio o específicos por página.
La ubicación de los enlaces en las páginas, si provienen desde
párrafos de texto, comentarios o el pie de página.
Figura 6.27. Ubicación de los enlaces en las páginas.
Los países e idiomas de las Webs que más enlazan, validando que
coinciden con los mercados e idiomas objetivos del sitio.
Figura 6.28. Países e idiomas de sitios Webs enlazantes.
Así como patrones que pueden señalar un comportamiento no natural
en el enlace del sitio. Por ejemplo, enlaces provenientes de redes de
sitios Webs que comparten la misma IP, están enlazados entre ellos o
son o Webs de baja calidad o que incluyen siempre la misma palabra
clave. También puede ser, por ejemplo, que se ubique siempre en el
mismo snippet de código de forma masiva.
Existen múltiples herramientas que ayudan a esta clasificación y valoración,
además de CognitiveSEO tenemos a Kerboo. Sin embargo, sobre todo en el
caso de los enlaces no naturales, es importante validar si los patrones
identificados señalan realmente un comportamiento “no natural”, ya que el
análisis automático nunca sustituirá el análisis manual, sólo ayudará y
agilizará el proceso.
Figura 6.29. Valoración de enlaces no naturales.
Para valorar los enlaces no naturales, es fundamental tener en cuenta que es
natural que existan Webs de baja calidad, de spam o no relevantes que nos
enlacen. Al fin y al cabo, nosotros no tenemos un control directo de quién
nos enlaza, y si nuestra Web es popular y tiene miles de sitios enlazantes, es
normal que exista un porcentaje de los mismos de baja calidad.
En este caso, lo fundamental es valorar no el número absoluto o patrón
aislado, sino los patrones no naturales que se repiten entre las páginas y el
porcentaje de los mismos del total de los enlaces que apuntan a la Web.
Por ejemplo, si una Web con 1 Millón de enlaces tiene 100 con un patrón no
natural, la influencia sobre su popularidad es mínima.
Sin embargo, con una Web de 1,000 enlaces, en los que el 20% de los
mismos muestran una combinación de patrones de poca naturalidad, porque
provienen de Webs no relevantes, directorios de publicación automática de
baja autoridad o están en un idioma que no es el de la Web y se enlazan
entre ellos; si generaría un perfil que habría que tratar.
¿Qué hacer entonces en el caso de identificar que un alto porcentaje de los
enlaces entrantes a nuestra Web muestran una combinación de factores que
los señalan como no naturales (y nosotros mismos verificamos que
efectivamente, no son enlaces de relevancia o referencias positivas a nuestra
Web)?
Lo primero será identificar si el alto porcentaje de enlaces no naturales han
tenido ya un efecto negativo en el posicionamiento de la Web, verificando
si se ha penalizado manualmente. Esto puede identificarse si se ha recibido
algún mensaje de existencia de enlaces no naturales a través de Google
Search Console en el pasado, o si se ha sufrido una bajada masiva de
posicionamiento o tráfico orgánico coincidiendo en el tiempo con alguna de
las actualizaciones recurrentes de Penguin en el pasado, y ahora ya en
cualquier momento debido a que se ejecuta en tiempo real 49 .
Figura 6.30. Verificación de Enlaces no Naturales.
En el caso que se haya sufrido ya una penalización manual o de una
actualización algorítmica, entonces tendrá una prioridad máxima eliminar o
minimizar estas señales que han afectado negativamente.
Figura 6.31. Identificación de Contacto de los enlaces con Kerboo.
Para ello se puede directamente solicitar la eliminación de estos enlaces, sin
embargo esta es una actividad que requiere mucho tiempo y esfuerzo
aunque puede ser facilitada con el uso de herramientas como Kerboo o
Pitchbox, que ofrecen funcionalidades para contactar con las Webs que
indiquemos, automatizando la identificación de los contactos, el envío de
los mensajes, etc.
Por otro lado, en el caso de que los enlaces no se eliminen, se puede realizar
una solicitud de desautorización de enlaces a través de la Seach Console de
Google.
Figura 6.32. Envío de desautorización de enlaces.
Es fundamental que cuando se realice la “limpieza” con la eliminación de
enlaces no naturales, se compense la pérdida de popularidad que conlleva la
misma con la creación de enlaces nuevos naturales, para así mantener el
nivel de popularidad de la Web.
Por ello es también fundamental hacer una identificación efectiva de esos
enlaces que están afectando de forma negativa, y evitar eliminar de forma
masiva enlaces que, aunque no sean de una alta autoridad, son naturales y
no representan riesgo de penalización.
Verificación de la competencia
La valoración de los enlaces debe siempre de hacerse de forma relativa a la
competencia, ya que esta comparación es la que permitirá responder a
preguntas claves en el análisis de los enlaces, como: ¿Cuál es el rol que
juegan los enlaces en mi posicionamiento? ¿Tengo suficientes enlaces o
debo priorizar su creación para potenciar mi popularidad? ¿Qué tipo de
enlaces necesito para poder competir con las otras Webs que se posicionan
mejor que mi Web?
Todo esto es relativo y depende en gran medida a los enlaces que tenga la
competencia directa: Si estás en un nicho poco competitivo con 1.000
enlaces entrantes de 100 Webs relevantes y de alta popularidad que te
enlacen, te estás posicionando ya por encima de tu competencia que tiene
solo 80 enlaces de 10 Webs de menor popularidad y relevancia.
Sin embargo, si estás en un sector competitivo, quizás con 5 Millones de
enlaces provenientes de 1 Millón de sitios, y tu competencia tiene 6
Millones de enlaces de 2 Millones de sitios de mayor popularidad y
relevancia que los tuyos, aunque a nivel absoluto parezca mucho, la
realidad es que, en este caso, será poco y requerirás una campaña de enlaces
que permita acortar distancia.
El objetivo será igual al que se ha hecho entonces con nuestra propia Web:
analizar de la forma más “completa” posible los enlaces de la competencia
para compararlos con los nuestros. La gran mayoría de las herramientas
mencionadas, Majestic, Ahrefs, Open Site Explorer, o el propio
CognitiveSEO, ofrecen esta funcionalidad.
Figura 6.33. Comparación de enlaces vs. la competencia.
En el caso específico de CognitiveSEO además permite obtener la misma
segmentación y métricas para los dominios de la competencia, lo cual
facilita este análisis y permite identificar el tipo y la fuente de enlaces que
están marcando la diferencia a nivel de popularidad.
Figura 6.34. Tendencia de creación de enlaces en el tiempo vs. Competencia.
Este análisis debe enfocarse entonces a responder preguntas como: ¿La
competencia tiene una mayor o menor autoridad a nivel de dominio? En
caso de que sea mayor: ¿Tiene una mayor cantidad de enlaces externos?
¿Estos enlaces vienen desde más o menos sitios? ¿Qué enlaces son únicos y
cuántos se comparten con la competencia? ¿Cuáles son las características
de estos enlaces: Ubicación, idioma, país, nofollow vs. dofollow, etc.?
Figura 6.35. Autoridad y ubicación de enlaces vs. Competencia.
Establecimiento de objetivos & estrategia
Una vez que se establece una comparativa del enlazado de nuestra Web con
el de la competencia, no sólo a nivel de volumen sino también de todas las
características que influyen en su valoración, se podrá establecer objetivos y
estrategia de la campaña de enlaces, comenzando con las preguntas que se
especifican en la Figura 6.38, para identificar:
El nivel de prioridad que tendrá la campaña de enlaces en el proceso
SEO: Si tiene más enlaces de mejor nivel de autoridad que la
competencia y aún así se está posicionando peor, y por otro lado se ha
identificado que es a nivel de optimización técnica y de contenido
donde existe una carencia, entonces se priorizará esto último en vez
de la campaña de enlaces al inicio del proceso.
El objetivo a establecer para la campaña de enlaces: Una vez
establecida la prioridad de la campaña de enlaces, se deberá
especificar qué tipo de enlaces se deben de crear. Para ello, se debería
comparar con la competencia: Si ésta tiene menos enlaces pero de
mayor autoridad o de sitios más relevantes, y tiene una mayor
autoridad a nivel de dominio que nosotros, entonces el enfoque a
seguir no será la masividad, sino mejorar la autoridad de los enlaces
que apuntan hacia nuestra Web.
Figura 6.36. Estableciendo tipo de enfoque y objetivo de Campaña de Enlaces.
Es importante señalar que aunque el enfoque sea mayor en la autoridad que
el volumen o viceversa, se deseará en general tener la mayor cantidad de
enlaces de la mejor autoridad y relevancia posible, por supuesto.
Figura 6.37. Pasos en el proceso de creación de enlaces.
Para crear enlaces de forma escalable que sean naturales y se alineen con
los intereses de nuestros usuarios, se recomienda seguir con un enfoque a la
creación de “activos”:
Optimizando los enlaces ya creados: si son nofollow, contactar con
los sitios enlazados para que pasen popularidad; si se han creado con
términos no relevantes, que incluyan palabras clave a posicionar; si
apuntan a la página de inicio, que comiencen a apuntar a páginas
internas a posicionar que sean relevantes; si se apunta a páginas de
errores, que estas se redirijan o que comiencen a apuntar a las páginas
a posicionar relevantes. Esto se debe de priorizar y enfocar
principalmente a aquellos enlaces provenientes de Webs de alta
autoridad para los que compense hacer este esfuerzo.
Creando “activos”, recursos, contenido, funcionalidades que conecten
con las preferencias de tu audiencia: es fundamental identificar el
patrón que sigue la audiencia para compartir, no sólo nuestro
contenido, sino también el de la competencia y las Webs del sector
para así establecer qué le gusta enlazar, qué encuentra más útil, qué
desea consumir y le llama más la atención y qué establecer en base a
eso: contenido, información, herramientas y cualquier “activo” o
funcionalidad que conecte con la misma y satisfaga una necesidad del
usuario, de forma que además lo comparta. El enlace puede ser desde
una guía, a entrada en el blog, promociones, ofertas, una noticia o una
herramienta. Se puede obtener un listado bastante completo con todo
tipo de tácticas a seguir para crear enlaces en la Web del conocido
link builder, Jon Cooper 50 : Desde creación de ebooks hasta
concursos.
Alineando con las características y la operativa actual de la empresa:
es fundamental sacar el máximo provecho y alinear la estrategia a
seguir con las actividades ya existentes de producto, marketing,
contenido, promoción en redes sociales y comunicación de la
empresa (además de que, por supuesto, tenga sentido para el tipo de
objetivo que buscas alcanzar). Por ejemplo, si se trata de una Web
que está en un sector complejo, como el financiero, tendrá una gran
oportunidad creando “activos” que permitan a la audiencia
comprenderlo mejor, creando, por ejemplo, diccionarios,
calculadoras, guías, entrevistas, y recursos que lo simplifiquen y lo
hagan más usable.
Promoviendo: A menos que seas la marca de referencia en tu sector
con una comunidad leal que cualquier cosa que publiques lo
comparta de forma espontánea, una gran parte del esfuerzo recaerá en
primero conectar y después promover con aquellas personas que más
influyen en tu sector para generar atención y ofrecer visibilidad al
contenido o activo que hayas creado, para que se pueda compartir y
enlazar. Para esto es fundamental, también, coordinarse con el equipo
de social media y comunicación de la empresa e integrar los activos a
promover entre la información que ellos promoverán en sus medios.
Figura 6.38. Listado de tácticas para la creación de enlaces.
Identificación de fuentes de enlaces
Se pueden comenzar a identificar fuentes de enlaces durante el análisis de
los que ya se han creado. Por ejemplo, CognitiveSEO ofrece ya un informe
de los enlaces que apuntan hacia páginas de errores de la Web que estamos
analizando: podemos encontrar los enlaces que apuntan hacia nuestras
páginas de errores y hacia los de la competencia.
Los nuestros pueden ser recuperados redirigiendo las páginas enlazadas
hacia sus versiones más relevantes actuales del sitio. En el caso de los
enlaces de la competencia, se pueden poner en contacto con los sitios
indicando el error de los enlaces y ofreciendo enlazar al mismo contenido o
a uno similar en la Web propia.
Figura 6.39. Enlaces hacia páginas de errores con CognitiveSEO.
Así mismo, se puede identificar qué Webs están mencionando la marca de
tu negocio pero que aún no están enlazando o qué Webs que enlazan a dos o
más sitios de la competencia pero que aún no te enlazan a ti, para así, en
caso que sean de alta autoridad o con potencial, y sólo te mencionen,
contactarlos para pedirles que te enlacen.
Figura 6.40. Webs que mencionan pero no enlazan o que enlazan a la competencia pero no a tu Web.
De igual forma, es importante establecer qué tipo de contenido comparte la
audiencia, no sólo enlazándolo, sino también refiriéndolo en redes sociales,
con tweets, likes, pins, etc. Aunque estos no tengan un efecto a nivel de
popularidad de forma directa, ayudarán establecer las preferencias de los
usuarios: qué temáticas y dónde se prefieren compartir. Esto se puede
identificar usando herramientas como Buzzsumo.
Figura 6.41. Contenido más compartido en redes sociales y plataformas sociales donde más se
comparte el contenido de tu Web vs. Competencia.
Además de las temáticas y sitios dónde compartir: es fundamental
identificar quiénes son los influenciadores, las personas que tienen más
visibilidad e influencia en tu sector en caso de que aún no tengas una
comunidad y no tengas relación con los mismos. Buzzsumo también ofrece
la funcionalidad de identificar los mismos en base a temáticas, ubicación y
criterios de seguidores.
Figura 6.42. Listado de Influenciadores en Twitter por temática.
Por otro lado, también es recomendable crear alertas para las menciones
que se hagan a tu marca (a la de la competencia o a los términos que
desees) y no te enlacen, lo cual también es posible hacer con Buzzsumo o
con las Alertas de Google si deseas una solución más simple y gratuita.
Figura 6.43. Monitorización de Menciones de temáticas, palabras clave, marca o competencia en
Webs.
Más allá de la identificación de menciones o enlaces actuales, puede
identificar Webs potenciales para contactar o para poder colaborar o
promover tu contenido usando herramientas como Kerboo o Pitchbox.
Pitchbox permite tanto importar las Webs con las que deseas establecer
contacto como identificar aquellas que sean relevantes a las temáticas de
distintos tipos de campañas como se puede ver en la Figura 6.44.
De forma similar, aunque con filtros más potentes, Kerboo permite
identificar las Webs que mencionan las temáticas que quieras y cumplan
con ciertos requerimientos de presencia social, idioma, país, nivel de
popularidad, entre otras; que sea relevante contactar para promover tu
contenido.
Figura 6.44. Campañas de enlaces con Pitchbox.
Figura 6.45. Webs relevantes a contactar con Kerboo.
Creación de enlaces
Una vez que se han identificado las fuentes de enlaces, el siguiente paso es
contactar con las webs encontradas de forma personalizada.
Herramientas como Pitchbox o Kerboo permiten automatizar este proceso
creando “templates” con mensajes que podemos personalizar con los
nombres de las Webs, páginas y contactos identificados de forma
automática por la herramienta, y enviar siguiendo una secuencia de emails,
mateniendo la relevancia sin tenerlo que hacer de forma manual a cada
Web.
Figura 6.46. Automatización de proceso de contacto con Pitchbox.
Esto permitirá ahorrar muchísimo tiempo y poder establecer campañas de
contacto para cada acción y contenido que se cree en la Web de forma
relevante.
De igual forma, estas herramientas permitirán no sólo dar seguimiento, sino
además monitorizar el ratio de respuesta y el éxito de “oportunidades”
ganadas, como se puede ver en la Figura 6.47.
Figura 6.47. Webs contactadas vs. respuestas y enlaces creados en Pitchbox.
Monitorización de enlaces
Conforme se vayan creando los enlaces, es fundamental que se comiencen a
monitorizar; tanto aquellos que se crean como resultado de la promoción
del contenido, como aquellos que se crean de forma espontánea.
Podemos incluir para ello, en Kerboo, en el apartado de monitorización de
enlaces, aquellos de mayor importancia para nuestra Web que deseamos
monitorizar.
Figura 6.48. Monitorización de Enlaces Creados con Kerboo.
Por otro lado, con una campaña recurrente en CognitiveSEO podremos
monitorizar los enlaces que se creen o eliminen hacia nuestra Web o la
competencia diariamente.
Figura 6.49. Monitorización de Nuevos Enlaces con CognitiveSEO.
De esta forma, estaremos al tanto de cómo vamos avanzando en relación a
los objetivos establecidos, de si se minimiza o modifica la diferencia de
enlaces con respecto a la competencia, y de refinar o ampliar la campaña de
enlaces en el tiempo.
45 support.google.com/webmasters/answer/66356?hl=es&ref_topic=6001971
46 support.google.com/webmasters/answer/93713?hl=es
47 searchengineland.com/library/google/google-penguin-update/
48 webmasters.googleblog.com/2012/10/a-new-tool-to-disavow-links.html
49 searchengineland.com/library/google/google-penguin-update
50 pointblankseo.com/link-building-strategies
7. Midiendo los resultados del
proceso SEO
“No te fíes de las cosas correctas que se hacen por la
razón equivocada. El “porqué” es la base.” — Interestelar
ESTABLECIENDO KPIS PARA MEDIR EL PROCESO
SEO
La medición del proceso SEO se debe comenzar al establecer las acciones y
objetivos del mismo ya que debe permitirnos monitorizar y tomar
decisiones sobre:
El alcance de los objetivos del proceso SEO a corto, medio y largo
plazo, de posicionamiento, tráfico, conversiones y beneficio. Tiene
que realizarse desde la búsqueda orgánica establecida para el proceso
SEO y poder responder a preguntas relacionadas con mismo que
permitan refinarlo. Conviene recordar que el proceso es iterativo /
incremental y continuo, y debe mejorarse en el tiempo en base a los
resultados que se van obteniendo:
• ¿Cuál es el posicionamiento actual de las palabras clave que estoy
atacando en mi proceso SEO? ¿Cuál ha sido su evolución en
posicionamiento desde el inicio del proceso? ¿Estoy por debajo o
por encima de los resultados que se habían planificado en esta
etapa del proceso?
• ¿Qué páginas y áreas de mi Web se están posicionando? ¿Son las
páginas relevantes de cara a las palabras clave que se están
atacando?
• ¿Qué combinación de palabras clave y páginas tienen mejor y peor
posicionamiento que el resto? ¿En qué se diferencian a las demás?
¿Cuál es la diferencia entre estas páginas y las que se posicionan
mejor de la competencia? ¿Qué características tienen ellos que
pueden servir a mejorar las mías?
• ¿Qué términos adicionales que no he atacado de manera inicial
están obteniendo un buen posicionamiento y un buen nivel de
tráfico orgánico y conversiones? ¿Los incluyo en el proceso?
¿Cómo puedo mejorar aún más su posicionamiento?
• ¿Qué términos que estoy atacando no se logran posicionar o cuáles
se posicionan pero no traen la conversión esperada? ¿Qué
acciones puedo identificar para mejorarlos? ¿Los excluyo del
proceso?
El estado de desarrollo de todas las acciones SEO, tanto técnicas y de
contenido y popularidad especificadas en las recomendaciones, como
el resultado de la auditoría. Esto último permitirá mejorar no sólo el
estado de optimización del sitio, sino además alcanzar los objetivos
establecidos.
Para ello es indispensable que:
Se cuente con un sistema que permita priorizar, coordinar y
monitorizar con facilidad la implementación de las recomendaciones
SEO y que permita establecer que:
• Las recomendaciones SEO más críticas de cara a los resultados
sean priorizadas.
• No existan cuellos de botella o estancamientos en el proceso de
implementación de las recomendaciones.
• Se puedan verificar los cambios antes y después de lanzarse para
asegurar que se han ejecutado de forma efectiva.
• Las fechas de lanzamiento de cada una de las recomendaciones
para así identificar su correlación con la evolución de los
resultados de los KPIs.
• Los tiempos y recursos usados para la ejecución que permitan
establecer un coste de inversión para los mismos y calcular el
retorno de la inversión (ROI) o beneficio del proceso SEO.
Se establezcan KPIs (Indicadores Clave de Rendimiento por su
nombre en inglés “Key Performance Indicators”) para cada una de las
áreas en las que trabajaremos en el proceso SEO, que no serán los
objetivos finales del mismo pero permitirán identificar con facilidad
si se está avanzando en el proceso como se había establecido. Por
ejemplo:
• La rastreabilidad del sitio como indicador de la optimización
técnica.
• La indexabilidad y posicionamiento de las páginas como indicador
de la optimización del contenido.
• Los enlaces obtenidos vs. la competencia como indicador de la
campaña de enlaces.
Figura 7.1. La Medición de Resultados como una Fase del Proceso SEO.
Como se puede ver, aunque se suele establecer la medición de los resultados
como una actividad a realizar una vez que se están ejecutando las acciones
SEO, la labor de medición se debe de iniciar y establecer desde el comienzo
del proceso, ya que deberemos recolectar las métricas establecidas como
clave desde un inicio, para así poder hacer una comparativa adecuada y
valorar su evolución.
Es importante, también, tener en cuenta que vamos a desear monitorizar de
forma constante la evolución de los resultados, aunque el análisis se
realizará cada cierto tiempo cuando ya existan suficientes datos y una
tendencia clara de los resultados (ya que, por ejemplo, las fluctuaciones en
el posicionamiento en los buscadores son constantes y no vale la pena sacar
conclusiones precipitadas cuando no existe una tendencia clara de mejora o
empeoramiento de los mismos) para una toma de decisiones en el proceso.
Debido a lo anterior, aunque es recomendable mantener una monitorización
constante, a menos que haya una actualización importante de algoritmo en
los buscadores, el análisis de lo alcanzado en el proceso SEO se puede
realizar semanalmente, en base a este se le entregará al cliente un informe
mensual informando de los resultados, donde se compartirán también las
acciones que se llevarán a cabo para mejorar la situación identificada.
MONITORIZACIÓN EL PROCESO SEO
Para llevar a cabo la medición de las distintas fases, actividades
relacionadas, indicadores y objetivos del proceso SEO como se ha detallado
a continuación es importante implementar distintos sistemas y usar ciertas
herramientas que no sólo nos permitan obtener estos datos, sino también
nos ofrezcan funcionalidades que faciliten el análisis:
El Estado de Desarrollo del Proceso SEO
Aunque la “monitorización” y gestión del proceso SEO no es en lo
primero que pensamos cuando hablamos de “medir el éxito” del
mismo, es indispensable para poderlo alcanzar. Si no se ejecutan
nuestras recomendaciones, de poco valdrá que estemos midiendo
todas las métricas y los objetivos, porque no se alcanzarán.
Además, hay que recordar que el proceso SEO no es sólo la auditoría
y recomendaciones iniciales, sino también la ejecución de forma
iterativa e incremental de las acciones que especifiquemos en las
mismas para alcanzar los resultados.
Figura 7.2. Tabla Resumen de Gestión & Control de Recomendaciones SEO.
Una vez se han establecido las recomendaciones SEO, se debe de
crear una “tabla-resumen” como se puede ver en la Figura 7.2, que
facilite la gestión y monitorización de su implementación,
especificando:
• Qué: Cada una de las acciones detalladas en las recomendaciones.
• Cómo: En qué página del documento de las recomendaciones SEO
se puede ver cómo implementar la acción especificada.
• Por qué: Definiendo el nivel de importancia y el estado del aspecto
que del que trata la recomendación. Es decir, la razón de la
recomendación, en base a la cual se definirá su nivel de prioridad.
• Dónde: En qué áreas del sitio se va a implementar, para que sea
más fácil definir los recursos alrededor del cambio y después
monitorizar estas áreas en específico.
• Quién: Los recursos, ya sean técnicos, de contenido o de
promoción, y las personas que deben estar a cargo para realizar el
cambio. Esto es indispensable para gestionar mejor el equipo
involucrado y especificar los tipos de recursos que se requieren
para poder ejecutar cada recomendación.
• Cuándo: En base a todo lo anterior, se deberá definir una prioridad
a cada una de las recomendaciones. En caso de que sea un aspecto
crítico debido a su importancia y estado inicial, se le dará una
prioridad alta y se deberá ejecutar cuanto antes. De esta forma se
garantizará que el esfuerzo se enfoque inicialmente a atacar
aquellas áreas y elementos del sitio que más lo requieren y que
generarán los resultados con más prontitud.
Una vez especificado lo anterior para cada una de las acciones a realizar en
el proceso SEO, se procede a su ejecución; para lo cual se querrá también
hacer una gestión de tiempos de implementación, lanzamientos para realizar
validaciones, anterior y posterior a su ejecución, especificar la fecha en que
se ha lanzado para identificar una correlación con cambios en los KPIs, etc.
Para esto podemos usar un gestor de proyectos, ya sea simple como
Basecamp, con más funcionalidades como Asana o Teamwork, o hasta Jira,
en el caso de tratarse de una empresa grande.
Figura 7.3. Gestión del Proyecto SEO.
Lo importante será identificar cuando no se está ejecutando el proyecto tal
como se había definido en un principio en la “tabla resumen” inicial, y
realizar los cambios que sean necesarios para eliminar cuellos de botella
que bloqueen el desarrollo general de los mismos. De ser necesario, habría
que reorganizar, pero manteniendo siempre la relevancia y el enfoque para
alcanzar los objetivos definidos.
Los KPIs & Alcance de Objetivos
Una vez ya puesta en marcha la implementación del proceso SEO, se
deberá también comenzar a monitorizar el estado de las métricas que se han
definido como KPIs para cada área a atacar, siendo las más comunes:
La Rastreabilidad del Sitio
El nivel de rastreabilidad del sitio es una métrica clave a monitorizar
ya que nos permite identificar la accesibilidad de la estructura de
nuestra Web por parte de los buscadores, que debe ser valorado en la
auditoría técnica y optimizado a través de las acciones relacionadas
con la optimización técnica del sitio.
El objetivo será verificar el número de páginas y áreas del sitio que
son rastreables por parte de los buscadores; y esto puede ser
monitorizado de forma recurrente a través de diferentes fuentes que
ya usamos para la propia auditoría:
• Las herramientas propias de los buscadores
En el Google Search Console tenemos un informe de estadísticas de
rastreo que, como se puede ver en la Figura 7.4, muestra el número
de páginas rastreadas al día, con un histórico de 90 días.
A través de la propia herramienta de Google, podemos obtener
información directa de los recursos bloqueados, con errores de
rastreo, etc., que también se recomiendan verificar para así analizar si
todas las páginas indexables del sitio están siendo rastreadas o si
existen problemas de bloqueos, velocidad o enlazado interno, entre
otros, que no estén permitiendo que los buscadores accedan de forma
efectiva a todo el contenido que se desea posicionar.
• Las herramientas de terceros
Para un mayor nivel de granularidad en la identificación de
problemas y errores, es también recomendable hacer rastreos
frecuentes con rastreadores como OnPage.org, o Botify, que permiten
visualizar la tendencia de la rastreabilidad del sitio en el tiempo,
como se puede ver en la Figura 7.5.
Figura 7.4. Estadísticas de Rastreo en Google Search Console.
Figura 7.5. Estadísticas de URLs rastreables en Botify.
Además de verificar el volumen de páginas rastreadas, está el
monitorizar el tipo de páginas que se rastrea y el porcentaje que está
generando errores, redirigiendo o siendo bloqueada a un mayor nivel
de detalle, que permita, no sólo controlar, sino también tomar
decisiones para mejorar y asegurar que las páginas a ser posicionadas
son rastreables.
Figura 7.6. Estados HTTP de las páginas rastreadas en el tiempo.
Indexación de las páginas del Sitio
Así también sucede con la indexabilidad de las páginas y el contenido
de las mismas, por lo que debemos verificar su estado de forma
constante y lo podemos hacer con:
• Las herramientas propias de los buscadores
Los buscadores también ofrecen de manera directa la información
sobre el estado de indexación de las páginas del sitio, por ejemplo,
como se puede ver en la Figura 7.7 en el Google Search Console
tenemos un informe específico con el número de páginas indexadas
en el tiempo, aquellas que no lo están siendo debido a bloqueos y las
páginas que han sido eliminadas usando la propia herramienta de
eliminación de URLs del Google Search Console.
Figura 7.7. Estado de Indexación en el Tiempo en Google Search Console.
• Las herramientas de terceros
Aunque es indispensable verificar la fuente original del buscador, lo
ideal es también verificar con rastreos frecuentes el número de
páginas indexables, y aquellas con problemas que influencian de
forma negativa el mismo: contenido duplicado, páginas
canonicalizadas o noindexadas, etc.
Con los rastreadores que ya usamos para el análisis on-page inicial,
como OnPage.org podemos visualizar con facilidad la evolución en el
tiempo de la indexabilidad de las páginas rastreadas, como se puede
ver en la Figura 7.8, y es recomendable verificarlo cada vez que se
lancen acciones que tengan un efecto directo de cara a la indexación
de la web, además de un rastreo recurrente mensual.
Figura 7.8. Nivel de Indexación del Contenido del Sitio con OnPage.org.
Enlaces & Menciones
Otra de las métricas críticas a monitorizar son los enlaces entrantes:
importante para verificar si se están atrayendo enlaces como
consecuencia de las campañas de link building y si esta mejora está
permitiendo cerrar la diferencia con la competencia, en caso de
existir.
Para su monitorización podemos usar:
• Las herramientas propias de los buscadores
De nuevo, en Google Search Console podemos obtener
información directamente de Google sobre el número y los enlaces
principales que identifican nuestra Web, los cuales se deben de ir
refrescando en el tiempo.
Figura 7.9. Enlaces externos entrantes en el Google Search Console.
Sin embargo, la información que se ofrece es muy limitada en cuanto
a métricas de los enlaces ya que no se ofrece ni su nivel de
popularidad de los sitios enlazantes ni si el enlace es nofollow or
dofollow, entre otros.
• Las herramientas de terceros
Para poder complementar la información que nos da Google
Search Console y monitorizar en tiempo real la creación o
eliminación de enlaces, es recomendable usar también
herramientas de terceros como CognitiveSEO.
Figura 7.10. Enlaces ganados y perdidos cada día con CognitiveSEO.
Como se puede ver en la Figura 7.10, CognitiveSEO nos informa
de los enlaces creados o eliminados en el día a día, además de sus
características principales, más allá del volumen, que podemos
usar para comparar con la competencia.
Visibilidad & Posicionamiento
Aunque muchas veces se ha comentado cómo se debe evitar
“enfocarnos” con rankings específicos por palabras clave como
objetivo final—ya que entre otras cosas, estos son personalizados y
están fluctuando todo el tiempo— es importante tener una referencia
en la tendencia del nivel de visibilidad, tráfico y conversión orgánica
del sitio para el que se hace el proceso SEO. Por ello es indispensable
monitorizarlos, ya que siguen siendo indicadores valiosos que nos
permitirán verificar si estamos mejorando en el tiempo según lo
esperado como consecuencia de las acciones que se realizan, o si hay
espacios de mejora; y de haberlos, dónde están y cuáles son aquellas
áreas a mejorar.
Para ello se pueden utilizar dos tipos de fuentes:
• Las herramientas propias de los buscadores
Los buscadores ofrecen datos directos sobre distintas métricas de
visibilidad del sitio en sus resultados. En el caso de Google, con el
informe de “Análisis de búsqueda” en Search Console y con el
número de clics, impresiones, CTR & posición media en los
últimos 90 días, aunque sólo visualizando las 1,000 páginas y
palabras clave más importantes.
Figura 7.11. Posicionamiento, Clics, CTR & Impresiones por Consulta durante los últimos 90 días
en Google Search Console.
Uno de los beneficios de este informe en Google Search Console
es que nos ofrece filtros o segmentos para identificar el
posicionamiento por dispositivos, el tipo de búsqueda (por
imágenes, Web, vídeo) y el aspecto de la búsqueda (AMP,
resultado enriquecido) que pueden ser comparados entre ellos para
así valorar de forma más fácil qué tipo de resultado es que el que
está generando más impacto.
Figura 7.12. Comparación de Clics, Impresiones, CTR & Posicionamiento entre los resultados
móviles y de escritorio.
• Las herramientas de terceros
Sin embargo, es indispensable, además, monitorizar nuestros
resultados de posicionamiento sin este límite de 1.000 términos o
páginas, poder tener más histórico en el posicionamiento,
compararlos con los resultados de la competencia e integrarlos con
nuestros datos de tráfico, entre otras funcionalidades que nos
faciliten no sólo la labor de monitorización sino también la
identificación de oportunidades para las que podemos usar
herramientas de terceros como SERPwoo, SEOmonitor, Wincher o
Accuranker, entre otros.
Por ejemplo, como se puede ver en la Figura 7.13, SerpWoo nos
ofrece un informe en el que podemos visualizar el porcentaje de
términos que tenemos posicionados, en los diferentes niveles de
posiciones, y cómo han ido evolucionando en los últimos 60 días.
Figura 7.13. Nivel de posicionamiento de las palabras clave monitorizadas en los últimos 60 días
con SERPwoo.
Con SEOMonitor podemos agrupar las palabras clave que estamos
atacando, por ejemplo, aquellas enfocadas a distintas categorías o
productos, y monitorizarlas de forma independiente o agregadas.
También podemos visualizar el posicionamiento diario por
dispositivo y para cualquier país, segmentarlo por palabra clave,
temáticas o páginas, y ver el impacto en tráfico y las conversiones
orgánicas gracias a su integración con Google Analytics, como se
puede ver en la Figura 7.14.
Figura 7.14. Informe de Posicionamiento de SEOmonitor.
De igual forma, se puede verificar a mayor nivel de granularidad,
para cada palabra clave que deseemos, con qué página específica
se ha posicionado en el tiempo (y verificar si esta ha cambiado),
su evolución, el impacto que tiene a nivel de visitas orgánicas, y
con qué sitios está compitiendo en las primeras 20 posiciones.
Figura 7.15. Información de Posicionamiento de un término específico en SEOmonitor.
Si lo que buscamos, además, es visualizar con facilidad la
tendencia de crecimiento o decrecimiento en el posicionamiento, y
la correlación que tiene con el movimiento de la competencia,
podemos usar SERPwoo, que automáticamente monitoriza el
posicionamiento de las Webs que se posicionan en los primeros
resultados, sin necesidad de especificar cada una de ellas.
Esto facilita muchísimo nuestro trabajo durante actualizaciones
del algoritmo, ya que se pueden identificar con esto tendencias y
ganadores y perdedores para las distintas palabras clave que
monitoricemos, tanto en resultados de escritorio como móviles, y
para una gran cantidad de países.
Más allá del posicionamiento y visibilidad con las palabras clave
que estemos atacando en el proceso SEO, vamos a desear también
cada cierto tiempo verificar cual es nuestro estado versus la
visibilidad a nivel general de las Webs de la competencia y
validar, en el caso de que estén atacando nuevos términos que aún
no hayamos tomado en cuenta nosotros mismos, e identificar una
nueva estrategia que podríamos usar.
Figura 7.16. Tendencia de posicionamiento de los primeros 20 resultados para una palabra clave con
SERPwoo.
Figura 7.17. Cambios de Posiciones en el Tiempo para cualquier sitio en SEMrush.
Para ello, podemos usar herramientas, como SEMrush o Sistrix,
con las que podemos monitorizar también de forma frecuente cuál
es la visibilidad y el posicionamiento a nivel general de nuestro
sitio versus las otras Webs que compiten con nosotros y su
evolución en el tiempo, como se puede ver en la Figura 7.17.
Tráfico & Conversiones Orgánicas
Más allá de la visibilidad y posicionamiento, está el tráfico y las
conversiones orgánicas que estos nos aportan y que establecen el
beneficio del proceso SEO según el modelo de negocio de nuestro
sitio: si ganamos dinero por visita (por mostrar anuncios) o al generar
una acción específica (compra, solicitud, referencia).
Esto lo vamos a desear medir con nuestra plataforma de analítica,
usualmente Google Analytics, debido a su gratuitidad y flexibilidad,
aunque siempre es aconsejable combinarlo con otra solución de
analítica para tener siempre una fuente de información alternativa que
permita contrastar la tendencia de los datos.
Figura 7.18. Informe de tráfico de búsqueda orgánica en Google Analytics.
Aunque desde hace algunos años ya no se ofrecen a este nivel los datos de
las palabras clave integradas con la información de tráfico debido al “not
provided” (y esto lo podemos sustituir con la integración que hacemos con
herramientas de terceros como SEOmonitor, o los datos del propio Google
Search Console, con la infomación de clics por términos y páginas), en este
caso, podemos monitorizar el rendimiento por “página de destino” (las
cuales estaremos atacando para términos ya establecidos en el proceso
SEO).
En este caso, es recomendable no sólo analizar el nivel de tráfico actual por
dispositivo y página, sino además verificar su tendencia en el tiempo y
compararlo con el mismo período anterior, para así verificar si hay un
crecimiento o decrecimiento relativo.
De igual forma, podremos identificar oportunidades a nivel de rendimiento,
en el caso de que tengamos páginas que estén, no sólo bien posicionadas
sino con un alto nivel de tráfico orgánico, pero que no conviertan bien y, de
esta forma, tomar decisiones que permitan maximizarlas.
VALORANDO EL BENEFICIO DEL PROCESO SEO
Es importante recordar que lo más importante, una vez monitorizados los
KPIs y la consecución de objetivos a nivel de posicionamiento, tráfico y
conversiones de forma constante, es tomar decisiones para así refinar el
proceso de posicionamiento, mejorando o excluyendo lo que no está
funcionando, e incluyendo aquello que no teníamos planteado inicialmente
pero que está funcionando bien, para así continuar con una iteración más
del proceso.
Figura 7.19. Toma de decisiones en base a resultados SEO.
Por último, el valor de nuestro trabajo como SEOs está en generar
beneficios para la Web en la que estamos trabajando (haciendo crecer su
negocio online), por lo cual es indispensable verificar que los beneficios
que se están alcanzando gracias al proceso superan los costes del mismo,
para así lograr un Retorno de la Inversión positiva.
Figura 7.20. Cálculo del ROI del proceso SEO.
Esto puede ser verificado fácilmente con los propios datos de Google
Analytics a nivel de ecommerce o de “objetivos” que hayamos establecido
contra los costes que se han generado, no sólo de nuestra actividad directa,
sino también de la implementación relacionada al proceso SEO. Para hacer
este cálculo se puede usar la calculadora de ROI SEO 51 . En este caso, ya no
con datos “esperados”, sino con datos reales del proceso. Luego habría que
refinarlo aún más en base a los resultados, con un mismo objetivo siempre:
maximizar los resultados de la Web para que conecte con sus usuarios y se
alcancen los objetivos de conversión y beneficio a través de las distintas
iteraciones del proceso.
51 aleydasolis.com/herramientas-seo-internacional/calculadora-roi/
Edición en formato digital: 2017
© Ediciones Anaya Multimedia (Grupo Anaya, S. A.), 2017
Calle Juan Ignacio Luca de Tena, 15
28027 Madrid
ISBN ebook: 978-84-415-3788-0
Todos los nombres propios de programas, sistemas operativos, equipos hardware, etc. que aparecen
en este libro son marcas registradas de sus respectivas compañías u organizaciones.
Está prohibida la reproducción total o parcial de este libro electrónico, su transmisión, su descarga, su
descompilación, su tratamiento informático, su almacenamiento o introducción en cualquier sistema
de repositorio y recuperación, en cualquier forma o por cualquier medio, ya sea electrónico,
mecánico, conocido o por inventar, sin el permiso expreso escrito de los titulares del Copyright.
Conversión a formato digital: REGA
www.anayamultimedia.es