Cinco especialistas en marketing de búsqueda contribuyeron con opiniones sobre la actualización principal de diciembre de 2020 de Google. Las observaciones ofrecen comentarios interesantes sobre lo que pudo haber sucedido.
En mi opinión, las actualizaciones de Google se han centrado cada vez menos en factores de clasificación y más en mejorar la forma en que se entienden las consultas y las páginas web.
Algunos han opinado que Google está aleatorizando los resultados de búsqueda para engañar a aquellos que intentan aplicar ingeniería inversa al algoritmo de Google.
No comparto esa opinion.
Ciertas características del algoritmo son difíciles de detectar en los resultados de búsqueda. No es fácil señalar un resultado de búsqueda y decir que está clasificando debido al algoritmo BERT o Neural Matching.
Pero es fácil de señalar a los backlinks, EAT o la experiencia del usuario como razones para explicar por qué un sitio está clasificando o no clasificando si eso es lo que sobresale, incluso cuando la razón real podría estar más relacionada con BERT.
Entonces, las páginas de resultados del motor de búsqueda (SERPs) puede parecer confuso y aleatorio para aquellos que están analizando las SERP en busca de factores de clasificación tradicionales de la vieja escuela para explicar por qué las páginas se clasifican o por qué perdieron clasificaciones en una actualización.
Anuncio
Continuar leyendo a continuación
Por supuesto, las actualizaciones de Google pueden parecer inescrutables. Las razones por las que las páginas web se clasifican han cambiado drásticamente en los últimos años debido a tecnologías como el procesamiento del lenguaje natural.
¿Qué pasa si las actualizaciones de Google y nadie ve los cambios?
Ha sucedido en el pasado que Google ha cambiado algo y la comunidad de SEO no se dio cuenta.
Por ejemplo, cuando Google agregó un algoritmo como BERT, muchos no pudieron detectar qué había cambiado.
Ahora, ¿qué pasaría si Google agregara algo como el algoritmo SMITH? ¿Cómo detectaría eso la comunidad SEO?
SMITH se describe en un artículo de investigación de Google publicado en abril de 2020 y revisado en octubre de 2020. Lo que hace SMITH es facilitar la comprensión de una página larga de contenido, superando a BERT.
Esto es lo que dice:
“En los últimos años, los modelos basados en la auto-atención como Transformers y BERT han logrado un rendimiento de vanguardia en la tarea de coincidencia de texto.
Estos modelos, sin embargo, todavía están limitados a textos breves como unas pocas oraciones o un párrafo debido a la complejidad computacional cuadrática de la auto-atención con respecto a la longitud del texto de entrada.
En este documento, abordamos el problema proponiendo el codificador jerárquico (SMITH) basado en transformador siamés de profundidad múltiple para la comparación de documentos de formato largo.
Nuestros resultados experimentales en varios conjuntos de datos de referencia para la coincidencia de documentos de formato largo muestran que nuestro modelo SMITH propuesto supera los modelos anteriores de última generación, incluidos la atención jerárquica, la red neuronal recurrente jerárquica basada en la atención de múltiples profundidades y BERT.
En comparación con las líneas de base basadas en BERT, nuestro modelo puede aumentar la longitud máxima del texto de entrada de 512 a 2048 «.
Anuncio
Continuar leyendo a continuación
No estoy diciendo que Google haya introducido el algoritmo SMITH (PDF) o que esté relacionado con el algoritmo de pasajes.
Lo que estoy señalando es que la actualización básica de diciembre de 2020 contiene la calidad de cambios aparentemente no observables.
Si Google agregara una nueva función basada en IA o actualizara una función existente como BERT, ¿la comunidad de marketing de búsqueda podría detectarla? Probablemente no.
Y es esa calidad de los cambios no observables lo que puede indicar que lo que ha cambiado podría tener algo que ver con la forma en que Google entiende las consultas web y las páginas web.
Si ese es el caso, entonces puede significar que en lugar de girar las ruedas en los factores de clasificación habituales que se observan fácilmente (enlaces de sitios de raspadores, velocidad del sitio, etc.), puede ser útil dar un paso atrás y considerar que puede ser algo más profundo que los factores de clasificación habituales que ha cambiado.
Información sobre la actualización principal de diciembre de 2020 de Google
Agradezco a quienes tuvieron tiempo de contribuir con sus opiniones, proporcionaron información excelente que puede ayudarlo a poner en perspectiva la Actualización del algoritmo central de diciembre de Google.
Dave Davies (@oohloo)
Beanstalk Internet Marketing
Dave pone esta actualización en el contexto de lo que Google ha dicho que llegará pronto al algoritmo y cómo eso podría jugar un papel en las fluctuaciones.
Dave ofreció:
“La actualización principal de diciembre de 2020 fue única para observar su implementación. Muchos sitios con los que trabajamos comenzaron con pérdidas y terminaron con victorias, y viceversa.
Así que claramente tuvo algo que ver con una señal o señales que caen en cascada. Es decir, donde el cambio provocó un resultado, pero una vez que ese nuevo cálculo se abrió camino en el sistema, produjo otro. Como recalcular PageRank, aunque este probablemente no tuvo nada que ver con PageRank.
Alternativamente, Google puede haber realizado ajustes sobre la marcha o realizado otros cambios durante el lanzamiento, pero creo que eso es menos probable.
Si pensamos en el momento y en cómo se relaciona con la implementación de la indexación de pasajes y que es una actualización principal, sospecho que se relaciona con los sistemas de interpretación de contenido y no con los enlaces o señales en ese sentido.
También sabemos que Core Web Vitals ingresará al algoritmo en mayo de 2021, por lo que puede haber elementos para respaldar eso en la actualización, pero esos no producirían el impacto que todos hemos estado viendo actualmente dado que Web Vitals debería ser técnicamente inerte. como una señal en esta etapa, por lo menos, habría más en la actualización que eso.
En cuanto a la reacción general de la comunidad, esta ha sido difícil de medir más allá de «fue grande». Como se puede esperar en cualquier escenario de suma cero, cuando una persona se queja de una pérdida, otra sonríe hasta el final de las SERP.
Sospecho que antes de finales de enero quedará claro exactamente qué estaban implementando y por qué. Creo que tiene que ver con funciones y capacidades futuras, pero he estado presente el tiempo suficiente para saber que podría estar equivocado y debo observar de cerca «.
Anuncio
Continuar leyendo a continuación
Steven Kang (@SEOSignalsLab)
Steven Kang, fundador del popular grupo de Facebook SEO Signals Lab, señala que nada parece destacarse en términos de similitudes o síntomas entre los ganadores y los perdedores.
“Este parece ser complicado. Encuentro ganancias y pérdidas. Necesitaría esperar más para este «.
Daniel K Cheung (@danielkcheung)
Líder de equipo, Prosperity Media
Daniel cree que es útil dar un paso atrás y ver las actualizaciones de Google desde la vista general del bosque en lugar del árbol de la última actualización, y poner estas actualizaciones en el contexto de lo que sabemos que está sucediendo en la Búsqueda.
Un ejemplo es la aparente caída en los informes de acciones manuales en Google Search Console. La implicación es, ¿eso significa que Google es mejor para clasificar los sitios a los que pertenecen, sin tener que recurrir a acciones manuales punitivas?
Así es como Daniel ve la última actualización del algoritmo central de Google:
“Creo que nosotros, como personas de Búsqueda / Descubrimiento, debemos dejar de pensar en las Actualizaciones del núcleo como eventos individuales y, en su lugar, considerar las Actualizaciones del núcleo como un continuo de pruebas continuas y ‘mejoras’ de lo que vemos en las SERP.
Entonces, cuando me refiero a la actualización principal de diciembre, quiero enfatizar que es solo uno de muchos eventos.
Por ejemplo, algunos especialistas en marketing y analistas afiliados han encontrado sitios que anteriormente fueron ‘afectados’ por la actualización de mayo de 2020 que se han recuperado en el lanzamiento de diciembre. Sin embargo, esto no ha sido consistente.
Y nuevamente, aquí está el problema, no podemos hablar de sitios que han ganado o perdido porque se trata de URL individuales.
Por lo tanto, mirar la visibilidad pura en todo un sitio web realmente no nos da ninguna pista.
Hay murmullos de redireccionamientos 301, PBN, backlinks de baja calidad y contenido pobre que son las razones por las que algunos sitios han sido empujados de la página 1 a la página 6-10 de los SERP (prácticamente invisibles).
Pero estas prácticas siempre han sido susceptibles a las fluctuaciones diarias del algoritmo.
Lo que ha sido realmente interesante a lo largo de 2020 es que ha habido muy pocos informes de sanciones manuales dentro de GSC.
Esto ha sido reemplazado inquietantemente con gráficos de impresiones y clics que saltan por un precipicio sin que el sitio esté desindexado.
En mi humilde opinión, las actualizaciones centrales se están volviendo menos dirigidas a una selección específica de prácticas, sino más bien a una oportunidad incremental para que el algoritmo madure.
Ahora, no estoy diciendo que Google lo haga bien el 100% de las veces; el algoritmo claramente no lo hace y no creo que lo haga nunca (debido a la curiosidad de la humanidad) «.
Anuncio
Continuar leyendo a continuación
Cristoph Cemper (@cemper)
CEO LinkResearchTools
Cristoph Cemper considera que la última actualización tiene un impacto en una amplia gama de factores.
Esto es lo que compartió:
“De alto nivel, Google está ajustando cosas que tienen un impacto global en las actualizaciones principales.
Es decir:
a) Relaciones de peso para diferentes tipos de enlaces y sus señales
Creo que el lanzamiento de NoFollow 2.0 de septiembre de 2019 no se completó, sino que se modificó. Es decir, cuánto poder para qué NoFollow en qué contexto.
b) Cuadros de respuesta, mucho más. Google aumenta su propia propiedad inmobiliaria
c) Devaluación masiva de las redes de enlaces PBN y huellas bastante obvias de «construcción de enlaces de alcance».
El hecho de que alguien haya enviado un correo electrónico de divulgación no hace que un enlace pago sea más natural, incluso si se pagó con «contenido» o «intercambio de servicios».
Michael Martínez (@seo_teoria)
Fundador de SEOTheory
Michael Martinez ofreció estas ideas:
“Según lo que he visto en las discusiones en línea, la gente está confundida y frustrada. Realmente no saben qué sucedió y pocos parecen tener teorías sobre por qué cambiaron las cosas.
En un sentido general, me parece que Google reescribió varios de sus algoritmos de aplicación de políticas de calidad.
No hay nada específico en mente, pero los sitios de otras personas que he visto me parecieron bien, no geniales. Algunos de los sitios de nuestra cartera aumentaron, otros dejaron de funcionar.
Una vez más, me pareció que se trataba de una aplicación o interpretación algorítmica de señales asignadas a sus directrices.
No se trata de castigar nada, sino de intentar algunos enfoques diferentes para resolver consultas «.
Anuncio
Continuar leyendo a continuación
¿Qué sucedió en la actualización principal de diciembre de 2020 de Google?
Las perspectivas sobre lo que sucedió en la actualización del algoritmo central de Google varían. Lo que la mayoría de los observadores parecen estar de acuerdo es que no parecen destacarse factores o cambios obvios.
Y esa es una observación interesante porque podría significar que se refinó o introdujo algo relacionado con la inteligencia artificial o el procesamiento del lenguaje natural. Pero eso es solo una especulación hasta que Google lo descarta explícitamente.