Saltar al contenido

El SEO y la importancia de la reputación

Las recientes actualizaciones de los algoritmos del core de Google y el Medic Update del año pasado, así como la publicación de las Directrices de Calificación de Calidad, indican en gran medida que la reputación de una empresa también es clave para el posicionamiento SEO. Si le interesa saber cómo puede funcionar todo esto, siga leyendo.

La edición más reciente de las “Quality Evaluators Guidelines” de Google, también llamadas “Quality Rating Guidelines” (“QRG”) son un guión sobre recomendaciones de factores de calidad y el punto de partida a la hora de plantearnos una estrategia SEO.

Las directrices de calificación de calidad de Google son un punto muy importante a la hora de interpretar las actualizaciones más recientes.

Parece ser, y empieza a estar cada vez más claro, que los factores de calidad, como los que figuran en el QRG, se han vuelto más influyentes en los rankings de búsqueda de Google.

Hay quien dice que estas directrices deberían ser tomadas como señales probables, en particular en lo que se refiere a la autoridad y la confianza . Por ejemplo, Marie Haynes dijo que los elementos mencionados en las Directrices de Calificación de Calidad podrían ser factores influyentes de clasificación, tales como la clasificación de una empresa y la reputación de los autores.

Al mismo tiempo, los Googlers aconsejan cada vez más a los webmasters que “se centren únicamente en la calidad”, e incluso recomiendan que los webmasters lean el QRG para que así puedan entender como ofrecer el mejor contenido

Ben Gomes, vicepresidente de Google de Búsqueda, Asistente y Noticias, en una entrevista el año pasado declaró:

“Puede ver las directrices del calificador como el lugar al que queremos que vaya el algoritmo de búsqueda. No te dicen cómo el algoritmo está clasificando los resultados, pero fundamentalmente muestran lo que el algoritmo debería hacer”.

Por lo tanto, más bien plantea la pregunta – ¿cómo determina Google exactamente la calidad algorítmica, que implica conceptos algo subjetivos de experiencia, autoridad, honradez y reputación? Los algoritmos de Google deben traducir estos conceptos en criterios cuantificables que puedan ser medidos y comparados entre sitios/páginas de la competencia.

Creo que algunos de los desarrollos algorítmicos anteriores de Google probablemente apuntan hacia el proceso, y creo que ha habido cierto grado de desconexión entre lo que la gente ha preguntado, cómo han respondido varios Googlers y cómo la gente ha interpretado esas respuestas. Gran parte de la conjetura ha parecido demasiado reduccionista, centrándose en factores teóricos relativamente ingenuos. Factores que los Googlers han negado directamente, en algunos casos.

Si Google da instrucciones a sus evaluadores humanos para que evalúen el E-A-T de un sitio pero no incorpora las clasificaciones resultantes, ¿cuál es el algoritmo que se utiliza? El simple hecho de afirmar que algo usa una colección de cosas como una calificación BBB, revisiones de usuarios o análisis de confianza en el enlace parece demasiado limitado. Del mismo modo, afirmar que Google presenta una evaluación de la calidad basada puramente en el análisis de la confianza del enlace y el análisis de la consulta parece demasiado limitado – Google obviamente está teniendo en cuenta algunos factores que van más allá de un análisis más avanzado del enlace / consulta, aunque eso también es parte de la mezcla.

Quality Evaluators Guidelines

Patente de calidad de sitios web de Google

Una de las patentes de Google me parece que describe lo que podrían estar usando, o algo bastante similar, y se basa en el aprendizaje automático. Es “Website Quality Signal Generation” (Generación de Señales de Calidad de Sitios Web), y fue anotado por Bill Slawski en una breve sinopsis y comentario en 2013 cuando se concedió la patente. Describe cómo se podría utilizar a los seres humanos para evaluar la calidad de los sitios web y, a continuación, un algoritmo de análisis podría asociar esas calificaciones con las señales de los sitios web -que probablemente identifican automáticamente las relaciones entre las señales cuantificadas y los valores de la calificación humana- y, por lo tanto, generar modelos a partir de las señales características. Estos modelos de señal podrían ser usados para comparar con otros sitios web sin calificación para aplicarles una puntuación de calidad. La redacción es fascinante:

“Los calificadores (por ejemplo, las personas) se conectan a Internet para ver sitios web y calificar la calidad de cada uno de ellos. Los evaluadores pueden enviar clasificaciones de calidad de sitios web al servidor de análisis de calidad a través del dispositivo de entrada de clasificaciones. El servidor de análisis de calidad recibe las clasificaciones de calidad del sitio web de los dispositivos de entrada de clasificación y almacena las clasificaciones de calidad del sitio web en el almacén de señales. Las clasificaciones de calidad de los sitios web se asocian con un localizador uniforme de recursos y otras señales de sitios web correspondientes al sitio web clasificado. El servidor de análisis de calidad identifica las relaciones entre las calificaciones de calidad del sitio web y las señales del sitio web y crea un modelo que representa las relaciones, como se describe a continuación.

Además, el servidor de análisis de calidad busca en el almacén de señales sitios web sin clasificar (por ejemplo, sitios que carecen de una señal que indique una clasificación de calidad). El servidor de análisis de calidad determina si los sitios web no clasificados tienen señales de sitios web que están relacionadas con las clasificaciones de calidad y aplica el modelo a los sitios web no clasificados. La aplicación del modelo da como resultado un índice de calidad calculado. El servidor de análisis de calidad asigna el índice de calidad calculado al sitio web correspondiente. El índice de calidad calculado es una señal de sitio web adicional que se almacena en el almacén de señales para su uso por otras aplicaciones”.

“El motor de búsqueda puede utilizar las señales del sitio web almacenadas en el almacén de señales para filtrar y/o ordenar los resultados de la búsqueda en función de las clasificaciones de calidad almacenadas de los sitios web. Por ejemplo, un umbral puede utilizarse para filtrar sitios web que tienen una calificación de calidad almacenada por debajo del umbral. Además, los sitios web devueltos por el dispositivo de búsqueda pueden ordenarse de acuerdo con su clasificación de calidad almacenada, de modo que los sitios web con mayor clasificación de calidad almacenada se enumeren antes que los sitios web con menor clasificación de calidad almacenada”.

La patente también proporciona algunos ejemplos de los tipos de cosas que podrían utilizarse como factores de calidad:

“…se pueden utilizar factores de calidad tales como la corrección de la gramática y ortografía del texto en las páginas web, si se presenta material obsceno o inapropiado, si los sitios web tienen páginas en blanco o incompletas, así como otros factores que afectarían la calidad del sitio web”.

Se puede notar que estas son algunas de las cosas que se mencionan en el QRG. Pero, esa no es la razón por la que la patente es tan convincente – es porque proporciona un marco muy lógico en el que desarrollar métodos para evaluar la calidad de los sitios web y de las páginas web, y para generar un Índice de Calidad que puede ser utilizado en las determinaciones de clasificación. Los métodos utilizados indican que se podrían utilizar conjuntos de páginas de prueba relativamente pequeños para crear modelos que podrían funcionar bien en todas las demás páginas de tipos similares.

Imagine que ha identificado un tipo de página para la que le gustaría crear un índice de calidad, como un artículo informativo sobre un tema de salud. Google podría tomar las señales que han mencionado antes que pueden medir, incluyendo: cantidad de contenido, diseño de página, número de anuncios y colocación de anuncios en la página y si interfieren en la experiencia de usuario, revisiones sobre el sitio, revisiones y enlaces sobre el creador del contenido si son diferentes del sitio, enlaces fuera de la página (quizás indicando la identidad del creador del contenido y/o citando fuentes de información de referencia), enlaces al sitio y a la página (PageRank), porcentajes de clics a la página a partir de sus búsquedas de palabras clave principales, correspondencia del titular/título visible en la parte superior de la página con el contenido de la página y el título y la meta descripción de los fragmentos de búsqueda, y factores que indican que el sitio se encuentra en el ascenso y ascenso.

A través de pruebas con tipos de páginas similares, Google podría haber desarrollado un modelo – un patrón – de la combinación de señales de calidad y desarrollado un valor de puntuación asociado con él. Esencialmente, cuando una página de un artículo sobre temas de salud tiene un cierto rango de señales de los criterios como PageRank, más el diseño del contenido y la cantidad de tipo similar, más cierto inlink PageRank, más CTR, más las revisiones de los usuarios – entonces Google podría aplicar la puntuación de calidad calculada a la página sin que ningún humano la revise manualmente. Parece probable que Google haya desarrollado algunos de estos modelos para muchos tipos diferentes de páginas.

La razón para pensar que Google podría estar incorporando el aprendizaje automático en esta secuencia es que podría crear relaciones de calificación de calidad en los datos que no serían simples botones de conmutación que se establecen manualmente con diferentes ponderaciones. En lugar de establecer torpemente un peso para una señal en particular (por ejemplo, diciendo que un artículo sobre un tema de salud de un cierto nivel de calidad debería tener un PageRank mínimo de X, y el número mínimo de enlaces, etc.), con el aprendizaje automático el sistema podría identificar relaciones más complejas (por ejemplo, asignar un cierto puntaje de calidad si el PageRank es de N a NN, el CTR es de X a XX, emparejado con un tipo específico de diseño de página).

La patente describe esta posibilidad:

“En algunas implementaciones, el modelo puede derivarse de las señales del sitio web y de las clasificaciones de calidad del sitio web usando un subsistema de aprendizaje de máquina que implementa la regresión vectorial de soporte.”

Esencialmente, esto produce un clasificador de aprendizaje de máquina. El modelo puede utilizarse para identificar todas las páginas de una clase común, calcular una puntuación de calidad y luego aplicar la misma o similar puntuación a otros miembros de la misma clase de páginas.

Si Google introduce los datos directamente desde las páginas y las valoraciones de sus evaluadores de calidad en un sistema de aprendizaje automático o no, no importa tanto: podrían seguir utilizando una serie de “modelos” de tipos de páginas y luego comprobar cómo los evalúan los evaluadores de calidad y, a continuación, ajustar manualmente las ponderaciones. Pero, con la capacidad computacional que Google tiene a su disposición, tiendo a pensar que esto ya no tiene sentido. De hecho, muchos otros analistas de SEO también están concluyendo que Google está incorporando el aprendizaje automático en las clasificaciones de contenido), y no sólo en la interpretación de los documentos que Google ha divulgado públicamente.

Esto realmente explica algo de la vaguedad que ha venido de Google cuando se le pregunta qué hacer para tratar las caídas en la clasificación a partir de los cambios en el algoritmo central. Las redes neuronales, obtendrán puntuaciones de forma muy holística, por lo que apuntar a cualquier señal o incluso a un puñado de señales para que influyan en el resultado de la mayor parte de las veces en un caso dado probablemente no sería realmente posible, sino que estaría enterrado en el complejo interior de los modelos, que podría estar bastante abstracto.

Una vez que los modelos calculados se aplican a los rankings de búsqueda, Google hace que sus evaluadores evalúen de nuevo los resultados de la búsqueda. Hacer esto de manera iterativa ayuda a ajustar los resultados para que sean cada vez mejores con el tiempo.

El QRG de Google sugiere también algo sobre los comentarios. Si una empresa o sitio web tuviera relativamente pocos comentarios totales, podrían optar por ignorar la medida por ser demasiado volátil o poco representativa. Tenga en cuenta que Google ha investigado durante mucho tiempo sobre el análisis de sentimientos y tiene una patente o dos para realizarlo. También lo han realizado para empresas y lo han mostrado con listados locales en el pasado. Ahora, han discutido de vez en cuando sobre si lo usan para los rankings. Pero, esencialmente, declararon que incorporarían el sentimiento. Para decirlo de otra manera, si Google está incorporando la reputación, ¿De qué otra manera podrían ajustar el ranking si no es mediante la realización de algún tipo de análisis de sentimientos? Entre todas las evaluaciones de calidad un tanto nebulosas, el sentimiento es relativamente sencillo de analizar y utilizar.

 

Factores de calidad que podrían estar afectando a tus posiciones en las SERP de Google

Menciones/Sentimiento – ¿La gente menciona su producto en los medios sociales y en los correos electrónicos? El “buzz” de los medios sociales es una medida de popularidad y el sentimiento también puede ser una medida de calidad.

CTR

Tasa de clics (CTR) – (y tasa de rebote relacionada) ha habido mucho debate sobre este factor potencial a lo largo del tiempo, pero, al igual que la puntuación de calidad en sí misma, si es utilizada por la puntuación de calidad de sus anuncios, entonces ¿Por qué no para las clasificaciones orgánicas también? En una divulgación de la libertad de información de 2012 que fue hecha pública por error por el Wall Street Journal, se cita al ex jefe de calidad de búsqueda de Google, Udi Manber, quien dijo:

“El ranking en sí mismo se ve afectado por los datos del clic. Si descubrimos que, para una consulta en particular, hipotéticamente, el 80 por ciento de la gente hace clic en el Resultado número. 2 y sólo el 10 por ciento hace clic en el Resultado número. 1, después de un tiempo nos damos cuenta de que, bueno, probablemente el Resultado 2 es el que la gente quiere. Así que lo cambiaremos.”

Algunas investigaciones han demostrado que el CTR influye en las clasificaciones y algunas han descubierto que no es así. Si es sólo parte del Índice de Calidad de un sitio web, entonces el CTR no es un factor de clasificación directa y esto podría explicar las discrepancias en los resultados de la investigación.

Porcentaje / Intrusismo de las colocaciones de anuncios – ¿Cuánto del espacio total de la página está compuesto por anuncios? Google puede haber calculado un umbral bueno/malo. Además, ¿Cuántos anuncios, y rompen demasiado el contenido principal de la página? ¿Le siguen los anuncios a medida que se desplaza por la página? Se podría calcular el grado de intrusismo de los anuncios.

Sitios que carecen de información de identificación – Lo ideal es que los sitios tengan páginas “Acerca de” y “Contáctenos”. La sección de “Acerca de” debe explicar quién es la empresa y, mejor aún, enumerar a los miembros más destacados del personal junto con fotos. La página Contáctenos debería tener tanta información de contacto como sea posible, incluyendo direcciones, números de teléfono y formularios de contacto. Es probable que ayude si las páginas del personal se enlazan con los perfiles de medios sociales de los empleados y LinkedIn y viceversa. ¡No hay nada peor que visitar un sitio y no poder ver quién está detrás de él!

Factores críticos del sitio – HTTPS es un hecho – pero, he visto que Google también va más allá de sólo marcar si tienes HTTPS ya que no todas las encriptaciones y configuraciones son iguales – he visto a Google Chrome lanzar advertencias por SSL obsoleto/fallido; los sitios E-Comm y de información financiera también deben tener Términos y Condiciones, Política de Privacidad e información de contacto de Servicio al Cliente claros. También, incluya las secciones de Ayuda y Políticas de Devolución, para una buena medida, si es aplicable. También he destacado el uso de las Tarjetas de Confianza en el pasado – aunque Google no utiliza las Tarjetas de Confianza como un factor de calidad muy probablemente, todavía es bueno para tranquilizar a los consumidores online y puede mejorar las ventas al aumentar la confianza.

Velocidad del sitio – esto casi no hace falta decirlo, pero esto fue un factor en el PPC Quality Score desde el principio, y sigue siendo un tipo de medida de calidad en la búsqueda orgánica hoy en día.

Revisado y Actualizado Regularmente – El QRG cita algunos tipos de artículos/información que necesitan ser revisados y actualizados si es necesario de manera regular. El asesoramiento médico, legal, financiero y fiscal son tipos de información que mencionan. Si su sitio contiene artículos de este tipo, compruébelo regularmente y si se realizan cambios, le recomiendo que añada una fecha “actualizada” visible en la página del artículo. De la misma manera, el hecho de no actualizar las fechas de Copyright de todo el sitio es también una medida potencial de calidad, y si no se actualiza puede contribuir a una evaluación de que el sitio está abandonado o no está actualizado. Otros aspectos de esto podrían incluir páginas con widgets/apps que no funcionan correctamente; páginas con imágenes y enlaces rotos; y, páginas que pretenden listar información actual pero que tienen un contenido claramente anticuado.

Páginas de contenido sin valor y sin contenido – Google puede ver los porcentajes de páginas encontradas por su araña que son páginas de error, páginas en blanco y páginas con contenido insatisfactoriamente breve. Los sitios con un gran número de errores indican una falta de actualización y un mantenimiento deficiente. Incluso si una página en un sitio de este tipo tiene un gran artículo, las posibilidades de que un usuario pueda hacer clic en otra página en el sitio y encontrar contenido insatisfactorio.

Contenido porno / malicioso / censurable / engañoso – Casi no me molestaré en mencionarlo, pero estos tipos de contenido aumentan considerablemente la probabilidad de que la página y el sitio reciban la puntuación de calidad más baja posible. ¿Desea una disminución instantánea de su índice de calidad? Añada estas cosas. Con respecto a esto, un sitio web también es responsable de tales cosas que aparecen en el contenido del anuncio, extraídas de otros servidores, por lo que uno debe estar un poco atento para saber qué tipo de cosas están siendo mostradas en su sitio web.

El PageRank Score

PageRank

Otro aspecto interesante de cómo podría funcionar el Índice de calidad es que el Índice de calidad de una página también podría incorporar los Índices de calidad de las otras páginas que enlazan con ella o con su dominio general. El índice de calidad se puede calcular en parte iterando sobre el gráfico de enlace completo varias veces al calcular las puntuaciones, utilizando un método similar al algoritmo PageRank original. Esto produciría una escala más ponderada de los valores del índice de calidad, lo que ayudaría a asegurar que el contenido de mayor calidad esté realmente en lo más alto y enterrando completamente el contenido de menor calidad hasta el punto en que las búsquedas prácticamente nunca lo encuentran en las interacciones típicas de búsqueda.

El Medic Update

Barry Schwartz publicó un puñado de algunos de los sitios impactados por el Medic Update, donde se puede ver que carecen de muchos de los criterios que hemos descrito anteriormente como factores potenciales de calidad y que el QRG menciona específicamente.

Mensajes confusos sobre las señales de clasificación

Algunas de las señales potenciales que se citan en este artículo han sido bastante controvertidas, y no dudo que algunos estarán en desacuerdo con algunas delas afirmaciones y conjeturas. Pero, creo que mis palabras se acercan a explicar por qué ha habido una desconexión sobre lo que algunos profesionales de SEO creen que son factores de ranking y lo que los Googlers están diciendo que no lo son.

Creo que los Googlers a veces han jugado un juego de semántica. Pueden decir que la presencia de uno o más de los factores controversiales (CTR, análisis de sentimientos, etc.) no son factores de clasificación directa – porque esos factores pueden o no convertirse en una evaluación compleja que resulte en un puntaje de calidad. Por ejemplo, si mis conjeturas sobre el Índice de Calidad están cerca de cómo funciona, entonces dos páginas diferentes sobre el mismo tema podrían ser muy relevantes y ambas tienen un CTR alto, pero el Índice de Calidad de uno podría ser significativamente más alto debido a una combinación de otras cosas. En otros casos, un CTR más alto podría hacer que una página pasara a ser clasificada con un nivel de calidad más alto.

Es casi seguro que existen diferentes combinaciones y ponderaciones de factores utilizados para determinar los índices de calidad de los diferentes tipos de páginas.

El uso de redes neuronales haría casi imposible la ingeniería inversa de los Resultados de Calidad resultantes porque es holística. Es por eso que los Googlers han estado recomendando cambios vagos para los afectados, como “trabajar para mejorar la calidad general” y “concentrarse en hacer el mejor contenido posible”. Aparte de los problemas técnicos de SEO, uno raramente será capaz de cambiar una o dos cosas en todo el sitio para hacer frente a los bajos puntajes de calidad con estos cambios. Como se ha observado con los sitios afectados por estos cambios, “los propietarios de sitios no deberían buscar una sola arma humeante, ya que casi nunca hay una sola”.

Cómo mejorar la puntuación de calidad de su sitio web

Entonces, ¿Cómo mejorar nuestro ranking?

Search Engine Results Page

La buena noticia es que la mayoría de las guías de SEO siguen siendo muy aptas. Ejercitar una buena “higiene” de SEO en general en la construcción técnica de SEO, manteniendo las páginas de error y las páginas sin contenido al mínimo. Elimine las páginas con poco contenido e innecesario. Evite las prácticas prohibidas de construcción de enlaces. O al menos, evita ser pilaldo.

El SEO en sí mismo es una práctica holística: Hay que hacer todas las cosas que son apropiadas y razonablemente factibles en la optimización de su sitio. Asegúrese de tener los elementos que aseguren que su sitio estará en la cima: Tener la página de “Acerca de”, páginas de Contacto, páginas de Política de Privacidad y Términos y Condiciones, opciones de contacto, de Atención al Cliente y actualización de contenido según corresponda.

Más allá de las técnicas de SEO, usted necesita estar algo obsesionado con la buena usabilidad, la buena experiencia de usuario, el buen servicio al cliente y la creación de gran contenido. Se necesitan personas altamente críticas para evaluar su sitio y darle retroalimentación sobre lo que puede no estar funcionando bien y cómo arreglarlo. Se necesita trabajar para ver el sitio como si fuera un consumidor de ese contenido y tratar de satisfacer las necesidades de los usuarios de su sitio. Se necesita responder a las críticas negativas y tratar de obtener comentarios online de sus usuarios/clientes satisfechos. Si su servicio frecuentemente crea fricción con los clientes, elimine los puntos de conflicto y mejore sus prácticas de servicio al cliente. Se necesita producir el mejor contenido. Nada nuevo bajo el sol.

Por último, practique la gestión proactiva de la reputación trabajando para comprometerse positivamente con su comunidad, tanto en línea como fuera de línea, de forma consistente a lo largo del tiempo. Participe en las redes sociales y desarrolle su presencia a través de esos canales. Proporcionar buenos consejos de expertos de forma gratuita como medio para la creación de reputación. Conviértase en miembro de los grupos profesionales de su industria y de los grupos de negocios de su comunidad. Responda profesionalmente y no se deje provocar o tenga salidas de tono.

Estas prácticas generarán las señales para un buen puntaje de calidad a lo largo del tiempo y verá los beneficios.