Como la mayoría sabéis, Google dispone de diversos algoritmos que le permiten dar una solución rápida y precisa a las necesidades de búsqueda de los usuarios. Estos algoritmos y sus múltiples actualizaciones han hecho que el gigante tecnológico acapare la mayoría de las búsquedas de los usuarios en multitud de países, en concreto en España, el pasado 2018 el 98,86%* de las consultas se realizaron a través de él.
Como es lógico para el buscador es primordial, para seguir manteniendo esta hegemonía dentro del mercado, poder ofrecer a los usuarios aquellos contenidos en sus búsquedas, que realmente les son de utilidad.
En este contexto, Google ha realizado la mayor y más importante actualización de los últimos cinco años, según fuentes de la misma compañía, la construcción de este mecanismo ayudaría a resolver un porcentaje de entre el 10% – 15% de las consultas de búsqueda que el buscador no puede predecir.
¿Y en qué consiste esta actualización y a qué responde su nombre, BERT?
BERT, es el acrónimo de “Bidirectional Encoder Repersentatios from Trasformers” una red neuronal de código abierto de aprendizaje profundo relacionado con el procesamiento del lenguaje natural. Con la inclusión de esta red en su algoritmo, Google ha pretendido ayudar a la máquina a entender lo que significan las palabras de una frase, con todos los matices del contexto y no palabra por palabra.
BERT puede entender el contexto completo de una palabra dentro de una oración al observar las que vienen antes y después. A través de esta solución, Google puede llegar a comprende la intencionalidad de las consultas que se realizan en el buscador.
Particularmente para consultas más largas (long tail), más conversacionales, o aquellas búsquedas donde las preposiciones como “para” o “a” tienen importancia en el significado, de esta manera, el buscador nos permitirá realizar búsquedas más naturales.
Según Bill Slawski (experto en algoritmos de búsqueda) BERT es un “enfoque de pre-entrenamiento de procesamiento de lenguaje natural que puede ser utilizado en un gran texto. Maneja tareas como el reconocimiento de entidades, parte del etiquetado de voz, y preguntas-respuestas entre otros procesos de lenguaje natural”
Esta actualización mejora la forma en que Google entiende las consultas de búsqueda, analizando éstas y no las páginas web. Esto tiene como primer efecto en cuanto al SEO, que la actualización de BERT no ayude al contenido que no esté bien hecho y cuidado.
Hay que señalar que de momento BERT ha comenzado a funcionar en EEUU y que se irá implementando progresivamente en el resto de los países.
Por último, indicar que BERT, siendo hasta este momento la actualización más potente del buscador desde 2015, no sustituye a Raink Brain, activada ese año y que fue la primera forma de inteligencia artificial que puso en marcha Google para tratar de entender las consultas en el buscador, puesto que, con este método, el buscado examinaba las consultas y también los resultados de las páginas web para intentar comprender mejor el significado de las palabras.
En el Grupo Ideonomia nos gusta hablar de marketing digital y si tienes alguna duda o consulta al respecto, estaremos encantados de hablar contigo.