跳动百科

使用MUM的多模态理解能力重新设计的Google搜索

卫岚富
导读 谷歌再次利用人工智能的力量进行搜索,以便为您的复杂查询提供更好的结果。在其 Search On 2021 活动中,谷歌解释了它如何利用MUM(多任

谷歌再次利用人工智能的力量进行搜索,以便为您的复杂查询提供更好的结果。在其 Search On 2021 活动中,谷歌解释了它如何利用MUM(多任务统一模型),这是它在今年的 I/O 活动中宣布的一个新的人工智能里程碑,以了解搜索者的需求。

在我们与您分享 MUM 的可能性之前,先简要介绍一下什么是 MUM。它是一个训练有素的模型,可以一起处理和理解多个查询。它比以前的模型更全面地了解信息和世界知识。谷歌表示MUM 比 BERT(一种深度学习模型)强大 1000 倍。MUM 是多模式的,可以理解文本和图像中的信息。

今天,在 Search On 活动中,Google 解释了它使用 MUM 成功实现的目标。谷歌解释说,在此期间,它已成功解锁了 MUM 的多项功能。而且,使您的搜索结果更合适是利用 MUM 真正潜力的应用程序之一。

在接下来的几个月中,Google 将推出一种新方法,将图像和文本组合到一个查询中并呈现更好的结果,即使是那些您没有要求但会有所帮助的答案。

谷歌搜索事件

Google 分享了一个示例,以便更全面地了解此新功能。正如 GIF 所示,可以看到用户使用 Google Lens 进行通常的视觉搜索。谷歌一如既往地提取匹配结果。从这里,用户可以做两件事,要么点击这些结果去检查和购买类似的产品,要么寻找即兴创作。这就是事情开始发生一些变化的地方。

如果用户打算搜索具有相同花卉图案的袜子怎么办?这就是示例中显示的内容。Google Lens 拉出匹配结果后,用户可以点击顶部提供的“添加问题”并编写查询。在这里,在这种情况下,用户写下“具有这种模式的袜子”,Google Lens 会为用户获取所需的结果。

想象一下,单独使用文本搜索相同的内容。这可能会变得非常复杂,您甚至可能最终无法找到所需的结果。因此,Google 正在让您更轻松地进行复杂的查询。