Google annoncé son prochain grand changement dans la façon dont il comprend les requêtes et le langage sur le Web – ils l’appellent MUM – Modèle unifié multitâche. Ce n’est pas encore en direct mais Google voulait en partager un peu. Google a déclaré que “la nouvelle technologie que Google explore en interne pour mieux comprendre le langage et faciliter l’obtention de réponses utiles aux besoins complexes de la recherche”.
Google a dit que c’était comme BERT en ce sens qu’il était construit sur une architecture Transformer mais qu’il était 1000 fois plus puissant. MUM comprend non seulement le langage, a déclaré Google, mais il génère également du langage. Google a déclaré que MUM est “formé dans 75 langues différentes et de nombreuses tâches différentes à la fois, ce qui lui permet de développer une compréhension plus complète des informations et des connaissances du monde que les modèles précédents. Et MUM est multimodal, il comprend donc les informations à travers le texte et les images et, en l’avenir, peut s’étendre à plus de modalités comme la vidéo et l’audio. »
Voici l’exemple:
Dans l’exemple ci-dessus, Google a déclaré que MUM peut générer des informations basées sur sa connaissance approfondie du monde, il pourrait souligner que si les deux montagnes sont à peu près à la même altitude, l’automne est la saison des pluies sur le mont. Fuji, vous aurez peut-être besoin d’une veste imperméable. MUM pourrait également proposer des sous-sujets utiles pour une exploration plus approfondie – comme l’équipement le mieux noté ou les meilleurs exercices d’entraînement – avec des pointeurs vers des articles, des vidéos et des images utiles provenant du Web.
Il est également très bon avec les langues et la compréhension des informations de tous types. Google a déclaré: “Des fonctionnalités optimisées par MUM et des améliorations de nos produits dans les mois et les années à venir”.
Vous pouvez en savoir plus sur le Blog de Google.
Discussion du forum à Twitter.