Google anunció su próximo gran cambio en la forma en que entiende las consultas y el lenguaje en la web, lo llaman MUM, Modelo Unificado Multitarea. Aún no está en online, pero Google quería compartir algo en el último Google I/O. Google aseguró que «la nueva tecnología que Google está explorando internamente está orientada a comprender mejor el idioma y facilitar la obtención de respuestas útiles a necesidades de búsqueda complejas«.
Google mencionó que es en cierto sentido como BERT, que se construyó sobre una arquitectura Transformer, pero 1.000 veces más potente. MUM no solo entiende el lenguaje, afirmó Google, sino que también genera lenguaje. Google dijo que MUM está «capacitado para entender 75 idiomas y muchas tareas diferentes al mismo tiempo, lo que le permite desarrollar una comprensión más completa de la información y el conocimiento del mundo que los modelos anteriores. Y MUM es multimodal, por lo tanto, entiende la información a través de texto e imágenes y, en el futuro, pueda extenderse a más modalidades como video y audio «.
Aquí está el ejemplo ofrecido por Google:
En el ejemplo anterior, Google mencionó que MUM puede generar información basada en su conocimiento profundo del mundo, podría señalar que si las dos montañas están aproximadamente a la misma elevación, el otoño es la temporada de lluvias. En la montaña Fuji, es posible que necesites una chaqueta impermeable. MUM también puede tener subtemas útiles para una mayor exploración, como equipos de alta calificación o ejercicios de capacitación de primera, con sugerencias a artículos, videos e imágenes útiles de toda la web.
También es muy bueno con los idiomas y entendiendo información de todo tipo. Google dijo: «Funciones impulsadas por MUM y mejoras en nuestros productos en los meses y años venideros».
Glenn Gabe compartió una publicación al respecto:
Puede obtener más información sobre Blog de Google.
Discusión completa en Twitter.