Conseguir hoy en día un alto posicionamiento orgánico en los distintos motores de búsqueda constituye una de las grandes metas que cualquier empresa querría lograr. Ser líder en cualquier buscador, para términos habitualmente muy buscados por usuarios, garantiza un gran tráfico hacia un sitio web que, si se sabe orientar, se convierte en negocio de una manera natural.
Actualmente existen multitud de factores que influyen en el SEO, algunos de éstos positivos, otros no tanto y, la influencia que todos éstos tienen (para bien o para mal) está sujeta a una serie de cambios dictados por los continuos ajustes que se producen en los motores de búsqueda y en los algoritmos que se encargan de asignar posiciones a los distintos fragmentos, en las páginas de resultados, para una palabra clave. Para este artículo vamos a ver todos aquellos factores de influencia que hoy en día hay que cuidar para conseguir optimizar nuestra web en lo que a posición en los motores de búsqueda se refiere.
White hat SEO y black hat SEO
Existen dos modos desde una perspectiva ética en lo referente a trabajar para mejorar el SEO, white hat SEO o SEO ético, aquel SEO en el que se siguen una serie de pautas consideradas éticas y black hat SEO, basado en usar trucos o deficiencias en los buscadores y así conseguir posiciones altas en buscadores. Para fines de estrategia se aconseja siempre las primeras, ya que las mejoras que obtengamos en cuanto a posición en buscadores son mucho más estables a largo plazo (aunque claro, no somos Google, Yahoo o Bing, con lo que cualquiera puede sufrir un revés en este aspecto).
En las siguientes líneas entraremos más detalladamente en cada uno de los aspectos que hay que cuidar para conseguir competir en Internet por un término o grupos de estos. Por otro lado al realizar una optimización SEO, o al implementar una gran estrategia, es vital tener mucha paciencia. Lo común es estar ansioso por ver cambios muy rápidamente y por lo general para esto hay que esperar dependiendo de cuales hayan sido nuestras mejoras a nivel SEO. Ver cambios en la autoridad de nuestras páginas y sitios web, así como en las posiciones de nuestras páginas en los resultados de una búsqueda require desde varias semanas a algúno que otro mes por lo general.
Cómo el usuario visualiza las páginas de resultados de búsqueda (SERP’s)
En las páginas de resultados de búsqueda también conocidas como SERP’s de search engine result pages, el usuario centra su atención mayoritariamente en la zona superior izquierda siguiendo un patrón en lo referente al movimiento de los ojos en forma de F, donde los 3 primeros resultados son los más importantes ya que captan la atención de nuestros ojos por lo general y por tanto tienen un tanto por ciento de clics (CTR de click through rate o ratio de clics) muy superior, al contrario que las zonas inferiores y derecha (zona donde el buscador muestra parte de la publicidad de anunciantes) en las que no se centra apenas atención. Este hecho confirma la gran diferencia que existe entre aparecer entre los 3 primeros resultados de búsqueda para una palabra o palabras clave determinadas u ocupar posiciones más lejanas.
Otro de los datos reveladores del estudio fue que el 45% de todos los clics de usuario ocurrían en una región ligeramente más grande que el cuadrante izquierdo superior de la página visible, unos 500 × 400 píxeles. El patrón en forma de F cambia en momento en el que los resultados no son los típicos 10 enlaces de color azul convirtiéndose en un patrón fracturado y donde los elementos multimedia que aparecen en los resultados de búsqueda cobran un mayor protagonismo (imágenes o vídeos). Los usuarios centran mayormente la atención en imágenes para desviarla posteriormente hacia el texto descriptivo, situado a la derecha de éstas.
Por otro lado también existen otros aspectos relacionados con este mismo concepto basado en los estudios sobre como los usuarios visualizan tanto las páginas de búsqueda como nuestros sitios web:
1. Usuarios que se centran en un grupo pequeño de palabras, en los títulos de cada fragmento en las SERP’s comenzando por la izquierda: Esta razón hace que sea importante componer títulos precisos y con un tamaño adecuado. Un usuario comenzará visualizando nuestro fragmento escaneando de izquierda a derecha nuestro título y lo abandonará (no hará clic) si las primeras palabras no encajan con lo que está buscando.
2. El título ha de de atraer la atención del usuario en menos de un segundo, ya que son rápidos a la hora de identificar si es interesante para él o no.
3. El tamaño de fuente importa: A menor tamaño de fuente, mayor concentración es la necesaria para realizar una actividad de lectura. Tamaños de fuente más grandes requieren del usuario escaneo más que lecturas. Usemos tamaños de fuentes razonables en nuestros sitios web.
4. Si los usuarios centran, por lo general, su atención en la parte superior izquierda, este puede ser un buen lugar para situar un menú de navegación.
5. Pequeños párrafos animan a la lectura. Cuando nos enfrentamos a párrafos muy densos tendemos a abandonarlos. Por esta razón los párrafos introductorios pueden ser una buena idea para atraer usuarios a leer un contenido.
FACTORES DE INFLUENCIA EN EL POSICIONAMIENTO ORGÁNICO
La elemento HTML <title>
Uno de los factores de mayor influencia en el posicionamiento de una página web para uno o más términos buscados en las SERP’s es el buen uso de un elemento o elemento HTML <title>. Los motores de búsqueda establecen una relación directa entre las palabras que aparecen en el texto de la elemento title y la url (dirección de la página) de destino cuyo HTML contiene este elemento. De esta forma para conseguir que nuestra página web aparezca entre los resultados de una búsqueda es vital que nuestro elemento contenga aquellos términos con los que queremos lograr una posición alta. Cuanto más cerca del comienzo del elemento estén dichos términos mucho mejor. Podríamos pensar entonces que quizás si quiero lograr un buen posicionamiento para los términos «venta de coches», podríamos crear un elemento <title> de esta forma:
<title>venta de coches, venta de coches, venta de coches</title>
Este sería un ejemplo sencillo de title spam o title keyword stuffing (sobrecarga de palabras clave en nuestro elemento title), técnica black hat nada recomendable y sujeta a penalizaciones por spam. Actualmente los motores de búsqueda usan una serie de filtros que evitan estas sobrecargas de términos penalizando aquellos sitios web que usen este tipo de técnicas. Por otro lado es importante no solo pensar en el motor de búsqueda que visita nuestras páginas, sino en el usuario. No parece muy elegante a ojos de cualquier usuario un título como el anteriormente nombrado en los resultados de una búsqueda. Ya veremos más adelante que el usuario tiene mucho que decir en cuanto al orden de resultados. Conseguir clics de aquellos es realmente vital y solo se produce cuando el título está muy cuidado en cuanto a calidad. Crear títulos adecuados generará confianza y los usuarios realizarán un mayor número de clics sobre nuestro fragmento, si creen que podemos ayudarles a satisfacer su necesidad de información o servicio. Creando un buen título conseguiremos un mayor número de clics de usuarios y por tanto obtener un CTR mayor. Ya veremos, algo más adelante, cómo este factor es determinante hoy en día en lo referente al posicionamiento.
Alguno de los errores más comunes en lo referente al uso de este elemento:
1. No asignar un título a nuestras páginas: Existen todavía multitud de sitios web donde el elemento title brilla por su ausencia o se encuentra de esta forma <title>Documento sin título</title>. Este elemento otorga a la página un contexto a nivel de contenido, y ofrece información muy valiosa a los motores de búsqueda sobre cuál es la temática o el contexto semántico de la página a indexar.
También es importante tener en mente que, cuantos más términos incluyamos en nuestro título, menor es la fuerza que ejerce cada término en nuestro posicionamiento, con lo que títulos demasiado largos tendrán como consecuencia una menor fuerza de posicionamiento para los términos en los que queramos lograr una posición más alta en buscadores.
2. Títulos de página demasiado cortos o demasiado largos: Por lo general los motores de búsqueda pueden mostrar títulos completos de hasta 70 caracteres, con lo que no es aconsejable sobrepasar esta cifra a la hora de crear los nuestros. Está demostrado que títulos muy largos o demasiado cortos tienen un menor CTR, por lo tanto usemos títulos simples, que contengan lenguaje natural, sean directos y vayan al grano.
3. Palabras clave colocadas en posiciones inadecuadas: Si nuestro objetivo es posicionarnos para «venta de coches en Querétaro» y queremos añadir en el título el nombre de nuestra empresa no es aconsejable el siguiente título: <title>{Nombre de empresa} – Venta de coches en Quéretaro</title>. Pongamos aquellos términos usados para posicionar (los más importantes) al comienzo de este elemento de la siguiente forma: <title>Venta de coches en Querétaro – {Nombre de Empresa}</title>. Esta correcta colocación de términos no solo ayuda a los motores de búsqueda a conocer el contexto de nuestra página, sino que ayuda al usuario posteriormente cuando realice una búsqueda y lea nuestro resultado. Nuestro objetivo es hacer que el usuario reconozca de inmediato si nuestra página puede satisfacer su necesidad de información y no hacerles interpretar si nuestra compañía podría o no ayudarles, con lo que mantengamos nuestros títulos claros e informativos.
4. Sobrecarga de términos: Como hemos comentado al principio del capítulo, saturar el título con multitud de términos o palabras clave es una técnica todavía usada por multitud de sitios web. Esta sobrecarga no es nada aconsejable ya que no siempre afecta de un modo efectivo al ranking de una página, sino que ésta puede sufrir una penalización. Recordemos que hoy en día los motores de búsqueda disponen de algoritmos de filtrado capaces de identificar, cada vez con mayor facilidad, este tipo de técnicas. En muchos casos, penalizando gravemente aquellas páginas o sitios web que las usen.
5. Duplicación de títulos: Los títulos de cada una de las páginas de nuestro sitio web deben ser únicos, del mismo modo que el contenido de nuestras páginas debe serlo también. Si dentro de nuestro sitio web tenemos multitud de títulos similares estaremos haciendo que nuestras páginas compitan entre ellas y hace difícil determinar a un motor de búsqueda que página es la que debería ser mostrada en sus resultados. A medida que hacemos crecer un sitio web creando nuevas páginas es relativamente sencillo cometer este error debido a que, podemos no recordar si anteriormente hemos añadido alguna página de contenido con un elemento title similar. Si el sistema de gestión de contenido o CMS (content management system) que usas para nutrir tu sitio web no te alerta de este hecho, existen técnicas para averiguar si ya hemos añadido anteriormente a nuestro sitio web una página con un título similar. Para ello podemos usar la siguiente búsqueda en Google «site:{ dominio de nuestro sitio web} intitle:{términos que queremos asegurar no haberlos usado anteriormente}».
6. Uso de potenciadores en nuestro título: Puede ser interesante el uso de potenciadores (términos o palabras que pueden empujar al usuario a realizar una determinada acción) mezclados con términos en los que estamos interesados en posicionarnos. De un modo subconsciente podemos «persuadir» al usuario para que acceda a nuestra página desde los resultados de una búsqueda, reforzando nuestros títulos con estos potenciadores. Podríamos usar un título como éste: «Venta de coches en Querétaro al mejor precio». Donde «al mejor precio» como potenciador podría conseguir que nuestro resultado tenga un mayor número de clics (el CTR empieza a ser un factor determinante en cuanto al posicionamiento).
La descripción de la página
La descripción de nuestro sitio web se corresponde al pequeño sumario que podemos encontrar en cada uno de los fragmentos de los resultados de una búsqueda justo bajo el título. Aunque actualmente está demostrado que esta descripción no influye de una manera directa en el posicionamiento, aunque si lo hace de un modo indirecto ya que ésta será leída por usuarios que realicen una búsqueda y si está escrita de un modo adecuado, influirá directamente en nuestro CTR.
Incluir ésta en nuestras páginas es tan sencillo como usar el elemento <meta> de la siguiente forma:
<meta name="description" content="Venta de coches en Aguascalientes descripción " />
Uso correcto de elementos de cabecera
Las elementos de cabecera <h1>, <h2>, etc. entran dentro del grupo de elementos semánticos (en HTML, algunos aportan valor en cuanto a la estructura y otros valor semántico) y son realmente importantes en lo referente al posicionamiento. Existen 6 tipos de elementos de cabecera, desde <h1> hasta <h6>, donde el primero tiene una importancia semántica mayor que el último. Así como un título aporta mayor valor semántico que un subtítulo, un elemento <h1> aporta mayor valor que un <h2>.
El uso del elemento <h1> no es tan importante como el título de la página pero no anda lejos. El uso de este elemento está restringido a uno por página y es adecuado que su contenido sea casi exacto al título, conteniendo todas aquellas palabras clave o términos con los que buscamos lograr un buen posicionamiento en las páginas de resultados de búsqueda. Evita el uso excesivo de las palabras clave en este elemento y limita el uso de un elemento <h1> por página. En cuanto al resto de elementos de cabecera (<h2>,<h3>, etc.) está «permitido» a nivel SEO incluirlos en una página en más de una ocasión aunque evita en ellos términos no relevantes o que no tengan relación con el contexto semántico de la página.
La importancia del contenido
El contenido de cada una de las páginas que pueblan nuestro sitio web es un factor crítico de tal forma que, si el contexto de una página no tiene ninguna relación con los términos con los que queremos lograr una buena posición en las SERP’s, éste no aparecerá en los resultados de una búsqueda para los términos objetivos.
Los crawlers o spiders que rastrean la web en busca de contenido filtran el HTML del contenido real. El HTML no aporta ningún valor añadido en lo referente a una búsqueda. Siguiendo este principio, cuanto más cerca esté nuestro contenido del comienzo del documento y cuanto menos tamaño en kilobytes tengan nuestras páginas mucho mejor. De esta forma los motores de búsqueda indexarán mucho más contenido más rápidamente cada vez que visiten nuestras páginas.
Cada vez más los motores de búsqueda «entienden el contenido de nuestras páginas». Apliquemos este principio siempre que compongamos un contenido y conseguiremos mejores posiciones en las SERP’s. Existe un límite inferior de caracteres en cuanto al contenido de una página. Cincuenta palabras es el mínimo aconsejado que por lo general satisface a la mayoría de los motores de búsqueda. Por debajo de esta cantidad, es complejo conseguir una buena posición para un grupo de palabras clave a no ser que la competencia para éstas sea realmente baja.
Al igual que con el elemento <title>, no tiene ningún sentido realizar spam en el contenido repitiendo una y otra vez nuestras palabras clave o términos objetivos. Mantengamos entre un 3% y un 8% la densidad de palabras clave (tanto por ciento que representan nuestras palabras clave en nuestro contenido) y apoyémonos de la conectividad semántica para lograr otorgar más peso a nuestros términos objetivos.
Mantengamos claro nuestro objetivo y cuáles son nuestras palabras clave ¿Qué términos representan nuestro objetivo? Centrarnos en posicionarnos para demasiados términos diluirá nuestras oportunidades de posicionar alto (ya se sabe que quien mucho abarca poco aprieta).
Por otro lado existe una gran controversia sobre si los elementos de tipo <strong> aplicados a palabras clave refuerzan el posicionamiento para éstas de un modo mayor que usando elementos de tipo <b>. Particularmente aconsejo elementos de tipo <strong> ya que este tipo de elemento es semántico y denota énfasis sobre una palabra o conjunto de éstas, mientras que un elemento <b> se usa para aplicar un cambio estético a una palabra o conjunto de éstas.
Quizás lo más complicado es encontrar nichos de términos o palabras clave por los que queremos lograr una buena posición en las SERP’s para posteriormente crear nuevos contenidos relacionados con ellos. Existen múltiples herramientas que veremos en capítulos posteriores y que ayudan mucho en la búsqueda de nuevos nichos de palabras clave para favorecer la creación de contenidos y el posterior aumento de visitas a nuestro sitio web.
No olvidemos actualizar el contenido de nuestras páginas de vez en cuando, es el único modo de indicar a los motores de búsqueda que nuestro contenido esta «vivo», que cambia con el tiempo. Cada vez que un crawler o spider de un motor de búsqueda visita un sitio web utiliza un crawl budget (presupuesto de rastreo). Éste representa el número de páginas que pueden rastrear hasta la próxima visita que recibamos de un motor de búsqueda. Actualizar frecuentemente nuestros contenidos tendrá como consecuencia un aumento del crawl budget para nuestro sitio web, lo cual es beneficioso si queremos que nuevas páginas se indexen cada vez más rápido.
Evitemos el uso de frames (secciones de una página que no se encuentran directamente en ésta sino que hacen referencia a otro archivo o incluso a páginas localizadas en otro dominio), los motores de búsqueda indexan el contenido de los frames pero no los asocian a la página donde se encuentran. Estaremos así perdiendo una buena oportunidad para beneficiarnos de un contenido que probablemente nos haya costado un esfuerzo.
El problema del contenido duplicado
Los motores de búsqueda son capaces de localizar coincidencias entre contenidos de distintas páginas usando segmentos cortos de pocas palabras. Cuando el número de coincidencias, de estos segmentos es elevado, los motores de búsqueda podrían interpretar estas coincidencias como «contenido duplicado» y por ello aplicar una penalización. Estas penalizaciones pueden ir desde la eliminación de la web completa de las SERP’s a eliminación parcial o bajada de posiciones para ciertos términos o palabras clave de una página interna determinada, la página que contiene el contenido duplicado. Actualmente los buscadores están muy avanzados en lo referido a la detección de contenido duplicado, aunque todavía les queda un período de mejora. El contenido duplicado es hoy un hecho en Internet y multitud de webs usan técnicas para hacerse con contenido no original y nutrir sus sitios web – que quede claro que no recomiendo para nada este tipo de prácticas black hat SEO – . Desde hace años, spammers han luchado por obtener contenido de calidad sin recurrir al esfuerzo, «rascando» de otras fuentes y realizando técnicas no muy legítimas para evitar la detección del contenido duplicado por parte de los motores de búsqueda (técnicas como cambio de palabras por sinónimos, reubicación de párrafos, mezcla de contenido de diversas fuentes, etc.)
Algunas consecuencias de publicar contenido duplicado
Como he comentado anteriormente el «crawl budget» es mayor cuando mayor sea la frecuencia de actualización de los contenidos de tu sitio web. ¿Por qué hablar ahora del crawl budget? Si tu web tiene páginas con contenido duplicado «derrocharás» éste, permitiendo que dicho robot visite estas páginas en vez de aquellas que podamos tener con contenido de calidad y original. Con lo que éstas últimas quedarán relegadas a ser visitadas en otra ocasión.
¿Cuál es el porcentaje de contenido duplicado permitido por los buscadores? La verdad, no hay respuesta para esta pregunta ya que solo los grandes buscadores lo saben, a partir de aquí todo es especular.
¿Los motores de búsqueda solo tienen en cuenta el contenido duplicado entre distintos dominios? No, enlaces internos a páginas con el mismo contenido son una pérdida de link juice o flujo de autoridad. Existen múltiples métodos para indicar a los motores de búsqueda como tratar con nuestro contenido duplicado (si tenemos distintas urls del mismo dominio con el mismo contenido).
Imaginemos dos páginas A y B con el mismo contenido dentro de un mismo dominio, existen diversas técnicas que podemos aplicar para solucionar este problema:
► Usar un elemento canonical: Éste es el modo correcto de solucionar el problema. Podemos insertar el siguiente elemento HTML en la página B para indicar a los motores de búsqueda que no identifique el contenido de esta página como otro distinto al de la página A: <link rel=»canonical» href=»/contenido/A» />. Esta solución trasladaría la relevancia actual de la página B a la A y sería similar a una respuesta HTTP 301 «Moved permanently» pero sin redirección.
► Evitar la indexación del contenido de la página B: El siguiente meta elemento en nuestra página B <meta name=»robots» content=»noindex»> indicaría a los robots de búsqueda que su contenido no debe ser indexado. Cuidado con esta solución, si existe relevancia previa para esta página se perdería por completo ya que dejaría de existir en los índices de los buscadores.
► Usar archivo robots.txt: Este fichero es leído por los robots de búsqueda y se usa para establecer restricciones para los buscadores a la hora de indexar determinadas páginas. Podemos usarlo para indicar qué páginas con contenido duplicado deben ser ignoradas por los motores de búsqueda.
► Usar una respuesta http 301 «Moved permanently»: Los robots de búsqueda se comunican con los sitios webs usando peticiones http de un modo similar al de un navegador. Podríamos responder a una petición http con un código de estado 301 hacia la página A si el robot intenta acceder a la B. Esta solución «trasladaría» la relevancia actual de la página B a la A.
Existen respuestas http que los motores de búsqueda saben interpretar. La respuesta 301 es recogida interpretando que ha sido movida a otra ubicación, como consecuencia, la autoridad previa que tuviese la página origen se transfiere a la página de destino evitando así el problema (2 urls distintas con el mismo contenido).
Enlaces internos y externos
La importancia de una buena estructura de enlaces internos
Un link o enlace interno es aquel que se comunica de una página de un sitio web con otra perteneciente al mismo sitio. El texto del link, también conocido como anchor text, constituye otro factor realmente importante en el posicionamiento para un término o términos clave.
Los enlaces internos son el modo más práctico para dar a conocer a los motores de búsqueda la estructura de un sitio web así como para que se distribuya, lo que se conoce como link juice (zumo de enlace) entre todas las páginas internas. Este link juice representa la calidad o el peso, a nivel de autoridad, que un sitio web puede transmitir a otros sitios a través de sus enlaces (un enlace entre dos páginas distintas representa un voto de autoridad sobre un tema concreto).
Por otro lado parece lógico pensar que, si para acceder a una página específica de contenido desde la página principal de un sitio web es necesario seguir cuatro enlaces entre varias páginas, ésta no debe ser tan importante. Los motores de búsqueda usan la estructura de navegación creada por los administradores de sitios web para asignar importancia a todas sus páginas internas, de esta forma, todo aquello que queramos destacar debería estar muy accesible y a pocos enlaces o clics de la página principal. Es aquí donde la usabilidad y el SEO se dan la mano (no siempre ocurre). Debemos facilitar la entrada a nuestro contenido más importante a los rastreadores o crawlers así como a los usuarios.
El aspecto más importante de los links o enlaces internos es lo que denominamos anchor text o texto del enlace. Este texto se usa para mejorar el posicionamiento de la web de destino para los términos que el propio texto posee.
La propiedad title de un enlace juega también su papel a nivel SEO. Ésta ofrece información semántica adicional sobre el elemento HTML en la que va incluida. Actualmente los motores de búsqueda extraen esta información y la tratan como suplementaria, se recomienda no usar esta elemento del mismo modo que usamos el texto del enlace.
Los motores de búsqueda necesitan tener acceso a una estructura de enlaces rastreable. A cada una de las páginas de un sitio web indexado se les acaba asignando un page authority (del que hablamos en el primer capítulo). La «suma» de toda esta autoridad de todas las páginas será usada por los motores de búsqueda para componer finalmente lo que se conoce como site authority (autoridad del sitio con respecto a un tema).
Cientos de miles de sitios cometen el error de ocultar páginas de contenido debido a la mala gestión de su navegación, de manera que los buscadores no pueden acceder a estas páginas afectando su capacidad para aparecer en los resultados de búsqueda.
Enlaces externos: una fuente de autoridad
La cantidad y calidad de enlaces o links que recibe un sitio web desde otros sitios es otro de los factores que influyen en el posicionamiento en buscadores. Normalmente si un sitio es considerado de gran autoridad, el flujo de popularidad o link juice que sus enlaces otorgan para favorecer el posicionamiento será mucho mayor, con lo que si tenemos enlaces de sitios web de autoridad en nuestra materia mucho mejor.
Este concepto se basó, en el caso de Google, en las menciones que se hacían los científicos en algunas revistas científicas americanas. Imaginemos que un científico A es realmente una eminencia en un tema concreto. Si éste hace una mención positiva sobre un científico B en uno de sus artículos, el cache de este científico B para esa temática subirá automáticamente. Siguiendo este razonamiento Google planteo su sistema de relevancia en lo referente a los enlaces. En definitiva diremos que un enlace es igual a un voto, si mi votante es muy relevante, su voto tendrá más peso.
Si tuviese que hacer una clasificación sobre los tipos de links teniendo en cuenta el posicionamiento que otorgan podríamos enumerar los siguientes:
► Enlaces de autoridad (authority links): Este tipo de enlaces provienen (como su nombre indica) de dominios que son una «autoridad general». A este tipo de dominios pertenecen solo los elegidos (aunque actualmente son bastantes) como Google, Yahoo, CNN, Youtube, etc.
► Enlaces de directorio (directory links): Actualmente existen muchos directorios que no son más que un compendio, más o menos organizado, de enlaces generalmente clasificados por categorías, palabras clave, etc. Es una buena práctica tras lanzar un sitio web dar de alta a éste en múltiples directorios, más concretamente en categorías que encajen con la temática de la página.
► Enlaces recíprocos (reciprocal links): Un enlace recíproco es aquel que se realiza desde el sitio A hacia un sitio B y viceversa. Generalmente este tipo de enlaces otorgan un peso inferior a uno unidireccional.
► Enlaces nofollow: este tipo de links indican a algunos motores de búsqueda que no es un enlace relevante. Esto hace que dicha página de destino obtenga un «voto» o flujo de autoridad muy leve desde la página origen.
Fragmentos enriquecidos
La web actual está compuesta de contenido y HTML, pero hoy en día existe en ella una falla a nivel semántico. Cuando un motor de búsqueda revisa una página de un sitio web, extrae el contenido, pero realmente no tiene un modo sencillo de analizar semánticamente cada una de las diferentes partes en las que éste está compuesto. Si bien es cierto que el HTML 4 posee algunos elementos que añaden un valor semántico al texto del elemento (véanse algunos como <h1>, <strong>, <em>, etc.), este valor es muy escaso.
Para cubrir esta falla existen proyectos como Schemas.org en el que contribuyen grandes firmas como Google, Bing o Yahoo, y en el que se establecen unas bases sobre como cubrir esa falta de valor semántico que actualmente existe en la web a través del uso de HTML 5. Los fragmentos enriquecidos, también conocidos como rich snippets, agregan información semántica a un contenido específico y son interpretados por los motores de búsqueda para presentar variaciones en la presentación de fragmentos en sus resultados. Existen varios modos sobre cómo conseguir que un motor de búsqueda muestre fragmentos de resultados de nuestras páginas a través de rich snippets:
► Microdatos
► Microformatos
► RDFa
Actualmente la recomendación de los motores de búsqueda es usar el perteneciente a Schema.org, es decir usando microdatos.
Por defecto los motores de búsqueda muestran fragmentos de información compuestos de: título, url, fecha y descripción. Si agregamos a nuestro contenido información semántica adicional usando micro datos podremos conseguir que nuestro fragmento, en los resultados de búsqueda, se visualice de un modo distinto al de nuestros competidores. Sólo recuerda que si nuestra página aparece en el resultado de una búsqueda para una serie de términos, el resto de páginas constituyen nuestra competencia directa para dicho término, es importante lograr que nuestro fragmento de contenido se distinga del resto de resultados de búsqueda. De esta forma ofreceremos una información muy útil para un primer vistazo aumentando la calidad en la visualización de nuestro fragmento. Por lo general el buen uso de rich snippets aumenta en el número de clics de los usuarios en los resultados de búsqueda que los implementan (CTR), por tanto mejoraremos el posicionamiento para dichos términos.
Por ejemplo, si un usuario realiza una búsqueda sobre un producto o servicio y nuestra página tiene los microdatos correctamente implementados, los usuarios podrán ver en la página de resultados el fragmento de su página enriquecido.
Los motores de búsqueda extraen (además del contenido de una página) formatos de marcado para finalmente componer esos fragmentos enriquecidos en las páginas de resultados. Los microdatos nos permiten añadir información sobre:
► Productos: nombre, imágenes, descripción, marca, categoría, información sobre análisis de productos, valoraciones, ofertas, etc.
► Datos personales: apodos, cargos, roles, relaciones sociales, direcciones, teléfonos, etc.
► Empresas y organizaciones: nombres, sitios web de empresa, teléfonos, datos de ubicación (geo localización)
► Eventos: descripción, dirección web del evento, ubicación, fecha de inicio, de finalización, categoría del evento, fotografías, etc.
► Opiniones: valoraciones, descripciones, fecha de la revisión.
► Recetas: tipos de plato, fotos, fecha de publicación, opiniones sobre el plato, tiempo de cocción, etc.
Velocidad de carga de un sitio web
La velocidad de carga de un sitio web es hoy en día un factor en alza SEO. Los motores de búsqueda conciben la web como algo que debería ser usable, y desde luego un sitio lento y pesado no lo es. Por esta razón los buscadores se cuidan de servir, como primer resultado, un sitio con un rendimiento pobre si de lo que se trata es de ofrecer al usuario la mejor experiencia de búsqueda posible, ésta incluye que éste encuentre la información que se busca rápidamente.
Un sitio web que carga en menos de 2 segundos se considera rápido, entre 2 y cuatro se considera normal, y más de cinco segundos lento. Algunas de las técnicas que podemos usar para incrementar la velocidad de nuestro sitio web son las siguientes:
► Uso de cache de datos: Si un sitio web usa una base de datos para mostrar contenido, es aconsejable el uso de cache de datos para evitar hacer consultas continuas cada vez que recibimos una petición a una página o request. De esta forma agilizamos mucho, dependiendo también como sean las consultas y como se haya optimizado y normalizado la base de datos, la carga del sitio.
► Compresión Gzip: Cada vez que un usuario realiza una petición de una página al servidor, éste procesa dicha página y devuelve al navegador del usuario un resultado generalmente HTML, Javascript, Imágenes, Css, etc, estas respuestas pueden también ir comprimidas en Gzip u otros métodos de compresión para minimizar los kilobytes devueltos. Los motores de búsqueda actuales soportan también compresión Gzip.
► Distribuir los recursos entre varios subdominios: existen límites en cuanto al número de conexiones simultáneas que permite un navegador. Si una web está compuesta de múltiples hojas de estilos, javascript e imágenes el navegador comenzaría descargándose los 3 primeros recursos de modo simultaneo, pero el resto tendrían que esperar en cola a que se descarguen los primeros y así sucesivamente. Estas esperas, aumentan el tiempo de carga de una web y para evitarla es muy aconsejable alojar ciertos recursos en subdominios (técnica también conocida como domain sharding).
► Combinar todas las imágenes comunes de un sitio web: para reducir todas las peticiones al servidor de cada una de las imágenes tales como botones, barras de navegación, imágenes de fondo, etc. en solo una, es extremadamente recomendable. Esta técnica consiste en cargar una sola imagen en nuestro HTML, con todas las imágenes en ella, y posicionarla a través de las distintas propiedades de las hojas de estilo o Css, especificando que parte de la imagen queremos mostrar. Si combinamos 20 imágenes en una sola, significara que habremos reducido la carga de 20 a 1 y nuestro servidor solo tendrá que trabajar una vez, en lugar de veinte.
► Uso de jQuery minimizado: actualmente el uso de jQuery se ha extendido y ha facilitado la vida de muchos desarrolladores front-end. Simplemente recuerda que si tus páginas incluyen jQuery es recomendable usar la versión minimizada para que el número de Kilobytes devuelto por el servidor sea todavía menor.
► Minimizar HTML y hojas de estilo: Debemos tratar de maquetar nuestras páginas con el menor HTML y CSS posible, de esta forma reduciremos el número de kilobytes devueltos ante una petición (sea de navegador o del spider de un motor de búsqueda).
Tiempo del sitio web indexado
Si un sitio web lleva online mucho tiempo será por alguna razón. Toda web requiere un mantenimiento y por tanto los motores de búsqueda otorgan peso a este factor a nivel de posicionamiento. Por otro lado parece lógico pensar que si después de tanto tiempo dicho sitio esta online, algún bien estará haciendo a los ojos de la comunidad. Los sitios que se crean para realizar spam surgen y mueren rápidamente, se usan para obtener una relevancia rápida y traspasar dicha relevancia a otro sitio web. La edad del dominio es vista como un signo de confianza.
El CTR, un factor poderoso
Hace bastantes años los motores de búsqueda basaban sus páginas de resultados en algoritmos ajenos a la acción del usuario. Desde hace varios años esto ha cambiado y los ingenieros de búsqueda de las distintas compañías Google, Yahoo y Bing, principalmente, se han dado cuenta que la acción del usuario es realmente importante y, ¿por qué no?, incluir esta acción como un nuevo factor en lo referente a la ordenación de los resultados. Es un factor claramente cualitativo ya que informa a los motores de búsqueda de la calidad de nuestro fragmento de resultado. Pongámonos así en la piel de un buscador, pongamos por caso Google (como no), ¿cómo valoraríamos si uno de los fragmentos que mostramos merece la pena ocupar cierta posición? La respuesta podría ser ésta: Si dicho fragmento lo he mostrado en 500 ocasiones y solo un pequeño porcentaje de usuarios ha hecho clic (menos del esperado para la posición que ocupa el fragmento) ¿será debido a que es de poca calidad y no merece estar en dicha posición? Por el contrario, si un fragmento de búsqueda tiene un ratio de clics muy alto (mayor al esperado para dicha posición) será debido a que los usuarios lo encuentran de un valor superior a la media, y tenderá a posicionar mucho mas favorablemente dicho fragmento de búsqueda. Es así como, valiéndose de esta útil información proporcionada por el usuario, el CTR ha ido adquiriendo cada vez más peso como factor en detrimento de otros.
TÉCNICAS POCO ACONSEJABLES A NIVEL SEO
Bajo estas líneas les comento cuáles son algunos de los múltiples factores de influencia negativa en un adecuado posicionamiento de páginas en los SERP’s varios términos objetivo.
► El servidor está inaccesible a menudo Los motores de búsqueda quieren ofrecer a los usuarios buenas experiencias en sus resultados. Si cada vez que el robot de Google intenta acceder a una web y el servidor está a menudo caído, por definición esta web no aporta una buena experiencia de usuario. De este modo los motores de búsqueda calificarán tu página web como de baja calidad y podría sufrir una penalización por ello.
► El contenido es muy similar o duplicado comparado con el de otras páginas web
Otro objetivo de los motores de búsqueda es ofrecer contenidos actualizados y novedosos para el usuario, con lo que si estos son similares o idénticos a los pertenecientes a otros sitios web, los motores de búsqueda penalizarán la página de copia por «contenido duplicado». Los motores de búsqueda cada vez tratan mejor este problema.
► Links externos:
Los motores de búsqueda tienen muy en cuenta todos aquellos enlaces que salen de tu web. Ya hemos comentado en este capítulo que cada link es un «voto» hacia el contenido de otro sitio web, y detrás de este voto existe una responsabilidad sobre quien realiza el enlace. Si la página de destino sufre una penalización, nuestro sitio web también podría recibir una penalización por dicho voto. El administrador de cualquier sitio web es responsable de los outbound links o enlaces salientes en última instancia. Por esta razón nuestra recomendación está basada en el buen uso de los enlaces salientes, siempre dirigidos hacia contenidos de calidad, y que tengan que ver con la temática de la página donde realizas el link.
► Venta de links:
Otro de los grandes motivos de penalización grave o eliminación de un sitio web de los SERP’s es la venta de enlaces. A menudo se busca aumentar la relevancia y la autoridad global de una página web comprando enlaces que son situados en otros sitios web cuya autoridad global en la misma materia es alta. Esta acción puede ser motivo de altas penalizaciones.
► Ratio de adquisición de enlaces:
A priori este factor no es un negativo. Como hemos visto anteriormente, es importante el número de links entrantes hacia tu web. Si se generan en Internet un número de enlaces entrantes hacia ésta de 5 por día, pongamos por caso, y ese ratio aumenta al cabo de dos semanas a 40 por día, probablemente esta página esté adquiriendo notoriedad o estas realizando alguna técnica de spam.
► Canibalización de palabras clave
Si tienes varias páginas dentro de tu web que usan títulos similares así como contenido semánticamente similar probablemente tengas riesgo de canibalización y estás perdiendo posibilidades a la hora de posicionar éste.
► Cloaking
Es una técnica en la que se publican varias versiones de una página web, una para los motores de búsqueda y otra para los usuarios. Existe un riesgo alto de penalización grave.
► Spamming
Esta técnica «black hat» consiste en poblar con palabras clave el contenido de una página, la meta etiqueta keyword, la etiqueta title, y las urls. El riesgo de penalización es muy alto.
► Uso de generadores automáticos de contenido
Existen herramientas que generan contenido mezclando párrafos de otras páginas. Los métodos avanzados de indexación están cada vez más depurados y al basarse en la comparación de múltiples pequeños fragmentos de texto detectan tarde o temprano la copia de contenido. Si queremos una web exitosa, publiquemos contenido único, de calidad e interés para el usuario.
► Gran número de links externos
Los motores de búsqueda penalizan gravemente a un sitio web si este contiene demasiados links externos hacia otros sitios. La penalización es mayor si la IP de los servidores donde se alojan esos sitios web comparten los 3 primeros segmentos iguales (xxx.xxx.xxx.{parte variable})
► Uso de frames
Evita el uso de frames cuyo contenido y navegación se encuentra distribuido en otras páginas o dominios. Los motores de búsqueda tienen problemas para indexar páginas cuya estructura es basada en frames.
► Uso de scripts maliciosos
Existen modos de infectar PC’s de usuarios que acceden a nuestras páginas usando algún tipo de código cliente malicioso, este tipo de prácticas son las menos recomendables por los motores de búsqueda.