RankBrain - BERT

En octubre, Google publicó su más reciente y mayor actualización de algoritmos desde RankBrain - BERT. Entonces, ¿qué es exactamente el BERT e importa a tu SEO?

Mobirise
BERT - Representaciones de Codificador Bidireccional de Transformadores - es una técnica basada en la red neural para el procesamiento del lenguaje natural y tiene la capacidad de entender mejor el contexto completo de su consulta mirando todas las palabras de su búsqueda. Google ha creado un nuevo software y hardware para que esta actualización se produzca con el fin de ofrecer un mejor servicio a los resultados de búsqueda y de profundizar en la información relevante que estás buscando.

Google dijo: "Con los últimos avances de nuestro equipo de investigación en la ciencia de la comprensión del lenguaje, posibles gracias al aprendizaje automático, estamos mejorando significativamente la forma en que entendemos las consultas, lo que representa el mayor avance en los últimos cinco años y uno de los mayores avances en la historia de la Búsqueda".

Actualización del BERT de Google: ¿qué es? - brightedge

El gigante de la búsqueda comprendió que a través de los miles de millones de búsquedas que recibían cada día, la gente buscaba consultas que normalmente no pedirían; por ejemplo, en una conversación diaria. Más bien, la gente estaba orientando sus preguntas a lo que pensaban que Google entendería mejor. Con el BERT, ahora tienes la posibilidad de buscar de una forma que te parezca natural en lugar de buscar de una forma que crees que Google, o un robot, entenderá mejor.
Para las consultas conversacionales y las palabras clave de larga duración, donde las preposiciones como "para" y "para" son palabras influyentes, Google, o mejor dicho, el BERT, será capaz de entender el contexto de las palabras en su búsqueda. Los modelos BERT tienen la capacidad de percibir que una palabra tan simple como "para" importa mucho.
Los sistemas de Google anteriormente emparejaban los términos de búsqueda con las palabras clave encontradas en una página, pero los modelos BERT entienden las palabras en diferentes casos de uso. Por ejemplo, Google probó y probó antes de publicar el BERT y descubrió que la búsqueda "do estheticians stand a lot at work" coincidía con una página con "stand-alone" en la copia, simplemente porque la palabra "stand" estaba presente. La SERP no era relevante para la consulta. El BERT ahora reconoce que "stand" se estaba usando en un contexto diferente.
Entonces, ¿la actualización del BERT de Google afecta tu SEO? No deberías haber visto demasiados cambios en los cambios de SEO mientras el BERT se implementó como lo habrías hecho en las actualizaciones anteriores de los algoritmos de Google. Danny Sullivan de Google ha dicho que no se optimice para el BERT. Continúa creando contenido y optimizando para las personas y sus consultas naturales.
Los modelos de BERT se aplican al rango y tendrán un impacto en los fragmentos destacados. Google dice: "BERT ayudará a Search a entender mejor una de cada 10 búsquedas en los EE. UU. en inglés, y llevaremos esto a más idiomas y lugares con el paso del tiempo".
Lee mas- agencia marketing online