Con este artículo nos gustaría tratar de un aspecto que puede no parecer importante o relevante pero, contrario a las apariencias, la profundidad web puede garantizar el éxito de una página así como ser un lastre tanto para su navegación como para su posicionamiento.

Antes de hablar de como solucionar problemas relacionados con la profundidad de una web y su impacto tanto en la experiencia de uso como en el posicionamiento de buscadores es importante conocer realmente que es la profundidad.

¿Qué es la profundidad web?

Se llama profundidad web al número de clicks necesarios para llegar desde la primera página hasta la más «alejada». En el caso de Geocrono, si queremos ir desde la dirección principal y queremos ver algo relacionado con Foros, tendremos que ir a «Social«, «Comunidades» y «Foros» haciendo que haya una profundidad 4 desde la página principal hasta la página de destino.

«1-Inicio -> 2-Social -> 3-Comunidades -> 4-Foros»

Ahora bien, si hay «atajos» como por ejemplo acceder desde la página principal hasta «comunidades» usando el desplegable, en realidad es una profundidad de 3, si además tuviéramos un enlace directo a foros desde la página inicial, estaríamos hablando de una profundidad de 2. «Inicio -> Foros»

Lo más interesante ahora es el buscar el equilibrio entre un uso rápido y ágil de la página con el mantenerla estructurada.

¿Qué es lo que NO es?

Es importante no confundir la profundidad de la web con la «profundidad de página en web» o «page depth in Web» que suele haber en todas las herramientas de analíticas. El objetivo de esa analítica es conocer en profundidad la visita realizada por un usuario y la secuencia de páginas que estuvo viendo durante la visita, es decir, el número de páginas vista por visita.

¿Cómo afecta?

El primer dato que podemos ver como afecta la profundidad de una página es el posicionamiento de la misma. Cuanto más profunda sea peor posicionamiento y valoración recibirá.

Las páginas más alejadas de la página principal disponen de un peor Pagerank (o incluso carecer totalmente de él). Por esta razón, los spiders o robots (rastreadores de motores de búsqueda) visitan menos estas páginas siendo menos propensos a descubrirlos o actualizar con frecuencia su contenido.

¿Cual sería el número ideal de enlaces profundos?

El número ideal que mantendría cierto equilibrio (dependiendo de la estructura, tamaño y objetivo de la web) que permitiera tanto una buena experiencia como una buena posición sería aquella que se encontrara entre 3 y 5 de profundidad máxima.

Observando esta gráfica podremos ver la comparativa entre el número de páginas profundas y su tráfico. Si llama la atención el crecimiento de aquellas webs con 10 o más de profundidad, es simplemente la suma entre las páginas que tienen entre 10 y 19 páginas de profundidad.

Captura de pantalla 2016-02-03 a las 14.39.17.png

¿Quienes serían los culpables de una mala profundidad?

Hay varios factores que podrían ser los responsables de una mala profundidad en la web y, por consiguiente, un bajo impacto hacia los visitantes, visitas de baja calidad o pocas visitas procedentes de buscadores. Estos culpables serían:

1-Error de paginación

Esta es la principal razón de errores en la profundidad y sería una mala planificación en la paginación de la web que incluirían aspectos tan conocidos como:

  1. Listas o «migas de pan» excesivamente largas. Por ejemplo: Inicio -> Páginas Web -> Social -> Comunidades -> Conversación -> Foros -> Opiniones. Es decir, pasar hasta por 7 páginas para llegar a nuestro destino.
  2. Muy pocos datos o contenidos en cada página. Esto implica a un desaprovechamiento de una página con tan solo una frase o una imagen que no aporta ni valor ni contenido suficiente para ser considerado útil por los usuarios ni por los buscadores.
  3. Al contrario que el punto 2, abusar de cada página añadiendo un excesivo contenido. El exceso de scroll se consideraría incluso como una página de profundidad más por lo que si hay que hacer mucho scroll para llegar a todos los contenidos de una página, a pesar de que como «profundidad» literal solo tuviera 3 páginas intermedias, si el usuario debe hacer múltiples desplazamientos se podría considerar hasta como 50 de profundidad.

ux-of-pagination

¿Donde suele pasar este error?

Esto se puede observar tanto en blogs con artículos muy extensos sin hacer uso del «leer más» para poderlo expandir, comentarios que no están paginados sino que se muestran todos independientemente de la cantidad de ellos, páginas de opiniones o páginas de artículos.

Imaginemos por un momento que en lugar de mostrar 10 artículos en este blog y posibilidad de desplazarnos a los anteriores, pusiéramos 50 o 100 artículos de golpe en cada una de las páginas y como se traduciría eso en desplazamiento o este mismo artículo si se mostrara con toda su extensión en la sección de blog de Geocrono, ¿cuanto desplazamiento haría falta para llegar al siguiente?

Tan malo es el exceso de paginación con la ausencia de la misma.

¿Como afecta esto a la página?

1- Ocultar o dificultar el mostrar contenido relevante y útil tanto al usuario como a los buscadores.

2- Contaminar contenido útil con contenido que posiblemente no sea de interés para tus potenciales clientes.

¿Como evitarlo?

A- En caso de que solo sea posible llegar a un contenido mediante navegación profunda, es necesario trabajar, estudiar e investigar la estructura de navegación web: Por ejemplo, crear y mostrar categorías más claras, crear tipos de filtros (sin exceso, claros y concisos) importante sobre esto en el punto 2.

B- ¿Las páginas profundas sean realmente de mala calidad o de bajo interés?

  • : Puedes evitar que los buscadores no «pierdan el tiempo» revisando esas páginas solicitando que los robots no vayan editando el archivo «robots.txt». De este modo podrás ayudar a que los buscadores se centren realmente en lo más importante para tu objetivo o tu negocio.
  • No: Dale un mayor protagonismo a estas páginas mejorando su posición en profundidad o aumentando el número de enlaces de tus páginas principales hacia ellas siempre que sea contenido relevante así como aumentar la prioridad e importancia de las mismas en «sitemap.xml»

Demasiados filtros de navegación

¿Qué es?

Si tu página web incluye filtros que son accesibles a los robots, y esos filtros se pueden combinar libremente, los robots tendrán que realizar la búsqueda de nuevas combinaciones de filtros cuando encuentren nuevas páginas detrás. Esto crea y multiplica la profundidad así como un excesivo volumen de páginas y un gran trabajo para los rastreadores o robots.

¿Donde puede pasar?

Esto puede ocurrir en cualquier esquema de navegación con filtros que crean a su vez nuevas páginas. Por ejemplo en «Clientes«.

¿Como afecta esto?

Ya que el volumen es exponencial, algunas combinaciones de filtros pueden tener mucho potencial tráfico orgánico desde buscadores, pero la verdad es que en la mayoría de ocasiones no es así generando mucho volumen pero poco interés o de baja calidad acabando por penalizar la web entera.

¿Como evitarlo?

La mejor práctica es el de limitar los vínculos correspondientes a las listas filtradas (y rastreables por robots) a un solo un único filtro con un máximo de 2 filtros al mismo tiempo. Por ejemplo, si hay una tienda de ropa con filtros por tipo / marca / color, lo ideal sería permitir la combinación sistemática de 2 filtros. En este caso, el «tipo y marca» (pantalones y Levis), «color y tipo» (rojo y vestido) o «marca y color» (Lee y amarillo).

Si sabes u observas por analíticas que existe otra combinación de filtros con mayor potencial de tráfico (‘negro’ + ‘nike’ + ‘camiseta’), lo recomendable sería añadir un enlace manualmente pero esto no significa que una combinación de 3 o más factores sea positiva en todos los casos y solo ocurra con un determinado producto, de ahí el crear un acceso directo a dicho producto.

filters

Seguimiento de parámetros en la URL

¿Qué es?

Un parámetro de seguimiento es aquella variable que se añade a una dirección web para reflejar la navegación de un usuario, suele ser muy habitual el encontrarlo en fuentes de entrada (por ejemplo, ‘?source=twitter’).

Esto puede crear un gran número de direcciones URL, varias para tener una única entrada. Por ejemplo, una sola dirección puede tener múltiples o infinitas URL de acceso según los parámetros a tener en cuenta. Estas rutas pueden llegar a rastrearse si las tenemos configuradas todas estas variables en la página web multiplicando el número de enlaces de entrada en la web pero perjudicando en global su posicionamiento.

¿Donde puede pasar?

En multitud de páginas o blogs suelen añadir la variable en el parámetro dependiendo de la red social donde fue publicado un enlace aunque también suele encontrarse en tiendas online o blogs en las secciones relacionadas, por ejemplo, «productos similares» o «historias relacionadas». En muchas de estas ocasiones, los enlaces a otros productos o artículos del blog incluyen un parámetro para rastrear la página de origen de donde provino el usuario.

Aclaración: Hay que tener en cuenta que estamos hablando de backlinks o enlaces internos, no se tienen en cuenta aquellos parámetros externos como por ejemplo campañas de publicidad online, seguimiento de usuarios, etc. Únicamente enlaces internos.

¿Como afecta esto?

Puede ser muy grave si existen muchas páginas a las cuales se realiza un seguimiento. Los parámetros de seguimiento pueden llegar a crear una enorme cantidad de páginas importantes duplicadas afectando y penalizando en motores de búsqueda.

404.png

¿Como evitarlo?

Es posible transmitir la información de seguimiento tras un ‘#’ al final de la URL, en el que no cambiará en ningún momento la dirección URL a diferencia del añadir una URL agregando un parámetro tras un’?’ que si haría que se considerara una URL diferente aunque la página sea la misma.

Otra opción sería la de redirigir las direcciones URL con un seguimiento de parámetro aplicado hacia la URL normal, es decir, sin ningún seguimiento y de ese modo no considerarla una nueva URL sino una simple redirección hacia la web de destino.

URL con formato incorrecto

¿Qué es?

Algunas páginas incluyen enlaces incorrectos o mal formados que se crean al publicar nuevas páginas cuando lo que en realidad deberían hacer es enlazar a páginas existentes.

Los enlaces incorrectos muestran en la mayoría de ocasiones un código 404 («No encontrado») (contribuyendo a la penalización SEO de la página web.

Otra posibilidad es ver enlaces incorrectos para poder redirigir a una página normal con otra URL como método de redirección y evitar precisamente el 404 pero, para el caso sería duplicación de contenido penalizando también.

Pero también es muy común que una URL malformada para volver una página que parece ser normal para el usuario: por lo general, en este caso, los enlaces mal formados todavía incluyen un identificador que se utiliza para rellenar el contenido de la página.

En ocasiones este «error» se suele provocar precisamente con el objetivo de mejorar el SEO aunque en realidad se consiga todo lo contrario. Es cierto que palabras clave en la URL son importantes, pero eso no significa que inventar URL o usar redireccionadores con dichas palabras clave vaya a ser positivo.

Dos ejemplos:

Elementos incorrectos o confusos en la URL. Por ejemplo: http://www.mywebsite.com/products/_id123456.html en lugar de mostrar:
lugar de http://www.mipaginaweb.com/productos/nombre-producto_id123456.html

Ejemplo de duplicación de URL por intento de engaño a SEO:
http://www.mipaginaweb.com/productos/productos/nombre-producto_id123456.html

¿Donde puede pasar?

Puede ocurrir en cualquier parte o sección de la página web. También puede ser provocado por un plugin o conflicto de plugins relacionados con SEO.

¿Como afecta esto?

La gravedad depende del volumen o cantidad de contenido. El peor caso es cuando las direcciones con una URL con un formato incorrecto devuelve un error 200 (OK) porque en ese caso existe la posibilidad de un número potencialmente grande de páginas duplicadas y lo que es peor, páginas clave o muy importantes que se consideran duplicadas (con la potencial posibilidad de ser eliminadas u obviadas en motores de búsqueda por esta razón).

¿Como evitarlo?

Se deben modificar o rectificar los enlaces incorrectos por los vínculos reales y correctos a la correspondiente página. Otra opción es la de redirigir una URL mal formada hacia la página correcta (HTTP 301 redirección permanente) o incluso es preferible mostrar un 404 (no encontrado). Otra opción es la de añadir esas URL como «noindex» en el «robot.txt»

Un enlace perpétuo

¿Qué es?

Es cualquier enlace que esté presente en todas las páginas de una plantilla determinada y siempre esté creando una nueva dirección URL.

¿Donde puede pasar?

El clásico lugar donde se puede encontrar es en enlaces del tipo ‘próximo día’ o ‘próximo mes’ en un calendario de eventos.

Algunas direcciones URL incorrectas también tienen el mismo efecto (un elemento repetido que se añade una y otra vez a la dirección URL en cada página que se vaya creando).

El impacto en la estructura es similar a la que ocurre en la paginación, sólo que esto sería peor porque sólo se puede ir hacia adelante  página a la vez y es un bucle infinito creando infinitas URL y destinos inútiles e inexistente con una enorme penalización.

¿Como evitarlo?

Para un botón con enlace perpétuo como son los clásicos «siguiente» es necesario aplicar un valor de «fin» o único que tenga sentido para la página web (si cogemos el ejemplo del calendario, la finalización sería el último día que contiene eventos, y actualizar el fin con cada nueva actualización en el calendario).

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver
Privacidad