domingo, septiembre 25, 2022
InicioSEO UpdatesCómo trabaja BERT en la búsqueda de Google

Cómo trabaja BERT en la búsqueda de Google

Google ha publicado un nuevo video sobre cómo BERT ayuda a la búsqueda de Google a comprender el lenguaje. Google ha estado utilizando BERT en la búsqueda desde 2018, si bien solo lo supimos públicamete desde 2019. Una vez dicho esto, el video básicamente se trata de que Google entienda mejor las pequeñas palabras.

Aquí está el vídeo:

Aquí está la transcripción si no quieres escuchar:

Si una receta de panqueques le dijera que «mezcle la masa con el plátano», probablemente no pensaría en usar el plátano como una cuchara para mezclar. Pero lo que es obvio para los humanos, cosas como el contexto, el tono y la intención, son en realidad muy difíciles de captar para las computadoras. En esencia, una búsqueda de Google se trata de comprender el lenguaje.

Para devolver la información correcta, Google no solo necesita saber la definición de las palabras… necesita saber lo que significan todas cuando se unen en un orden específico. Y eso incluye las palabras más pequeñas como «por» y «para». Y cuando piensas en cuántos significados diferentes puede tener una sola palabra… comienzas a ver lo difícil que es escribir un programa de computadora que tenga en cuenta todos estos matices. ¿Ver? Caso en punto. «Pretty» aquí no significa hermosa, significa «bastante».

Cada vez más, las personas hablan con Google de la forma en que piensan y hablan. Y, cada vez más, Google está mejorando en la comprensión de lo que significan. Uno de los mayores avances en la historia de la búsqueda se produjo con la introducción de «Representaciones de codificador bidireccional de transformadores» o, como nos gusta llamarlo, BERT. BERT es una arquitectura modelo de aprendizaje automático que ayuda a Google a procesar el lenguaje y comprender el contexto en el que aparece. La búsqueda solía procesar una consulta extrayendo las palabras que consideraba más importantes. Por ejemplo, si digo «¿puede obtener medicamentos para alguien en una farmacia?», habría obtenido resultados generales sobre farmacias y recetas porque básicamente habría ignorado la palabra «para». Pero con BERT, las PEQUEÑAS palabras se tienen en cuenta y cambia las cosas. La búsqueda ahora entiende que desea saber si puede recoger medicamentos… recetados a otra persona.

Pero, ¿cómo entrenas un modelo de lenguaje para captar el contexto? Hay una gran diferencia entre conocer palabras y comprender el significado. El modelo aprende el contexto aplicando los mismos principios de completar los espacios en blanco que se necesitan para completar un Mad Libs. Así que tomamos una frase. Ocultamos alrededor del 20% de las palabras de entrada. Y luego hacemos que la computadora adivine las palabras que faltan. Con el tiempo, el modelo comienza a comprender que diferentes palabras tienen diferentes significados según lo que les rodea. Y el orden en que aparecen en ese texto, realmente importa. Entonces, cuando buscas algo complejo como «cebo de pesca con mosca para truchas en septiembre de montana», la búsqueda sabe que todas las pequeñas palabras son importantes y, como ahora las tiene todas en cuenta, Google puede decirte el cebo perfecto para esa época del año.

BERT no es infalible, pero desde que se implementó en 2019, ha mejorado muchas búsquedas. Siempre deberíamos ser capaces de aprender acerca de lo que sea que tengamos curiosidad. Y es por eso que la Búsqueda siempre trabajará para entender exactamente lo que realmente estás preguntando.

fuente: https://www.youtube.com/watch?v=2lR8Fzays4I
Nicolás Ockier
Nicolás Ockierhttps://ockier.es/quien-soy/
Mi nombre es Nicolás Ockier y soy Senior SEO en Barcelona. Con más de 15 años de experiencia como SEO manager, me he convertido en un solucionador de problemas de marketing digital que determina el contenido que necesita una web en función de las consultas de los motores de búsqueda. Durante años llevo obteniendo excelentes resultados en mercados altamente competitivos.
Artículos Relacionado

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Tiempo excedido. Por favor, completa el captcha nuevamente.

LO ÚLTIMO

LO MÁS POPULAR