搜索这件事,正在被彻底重新定义。
3月27日,谷歌正式宣布将Search Live功能扩展至全球超过200个国家和地区。这项功能由全新的Gemini 3.1 Flash Live模型驱动,用户只需打开手机摄像头对准现实中的任何物体,再用语音提问,AI便会实时识别画面内容并用语音回答——同步还会推送相关网页链接。装家具不知道怎么拼、路边遇到不认识的植物、商场看到叫不出名字的零件,这些场景都可以直接”拍给”谷歌来解决。Android和iOS的Google应用及Google Lens均已支持。
这次升级的核心在于”多模态”的真正落地。此前的搜索是”我打字,你返回网页”,而Search Live变成了”我举起摄像头,AI主动理解我所在的环境”。Gemini 3.1 Flash Live作为原生多语言音频与语音大模型,在保持低延迟的同时提升了对话自然度,让搜索交互更像是和一个会”看”的朋友在聊天。谷歌显然意识到,单纯的文字检索已经无法满足用户的真实需求,空间感知与实时理解才是下一个战场。
当搜索引擎开始”长眼睛”,你还会老老实实地打字搜索吗?
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...