在 I/O 2025 上,Google 宣布其搜索体验将由传统的信息检索迈入“智能响应时代”。

通过整合 Gemini 2.5 模型,Google Search 正式推出更强大的 AI Mode,赋予搜索更深入的推理能力、实时互动、个性化分析与自动任务处理等多维度能力。

🧠更智能的问答体验

  • 支持复杂、多轮、多模态提问;
  • 响应中不仅有答案,还附带网页链接,帮助用户进一步探索;
  • 通过 “query fan-out”机制,将问题自动拆解成多个子查询,深入搜索更广泛网页资源;
  • 整合 Gemini 2.5 定制版本,提升理解力、回应准确性与逻辑结构。

🔬 深度功能拓展

🔹 Deep Search:自动生成专家级研究报告

  • 针对复杂查询(如论文研究、技术主题),AI Mode 可发起上百次自动搜索;
  • 汇总、推理并形成完整引用的深入报告,节省数小时调研时间;
  • 适合高等教育、商业研究与学术探索场景。

📸 多模态与实时互动:搜索真正“看得见”

🔸 Search Live:摄像头实时视觉问答

  • 集成 Project Astra 能力,用户可通过摄像头与 AI 互动;
  • 支持“看到即问”:拍照某个装置、植物或街景,AI 实时反馈解释与链接;
  • 可作为学习工具、旅行助理或故障识别助手使用。

🤖 智能代理(Agentic Capabilities):AI 为你办事

🔹 自动任务执行(Project Mariner)

  • 示例:“帮我找两张本周六红人队比赛的低层看台门票”,AI 可自动查找、对比、分析并推荐结果;
  • 当前支持:购票、订餐、预约,未来拓展更多场景;
  • 与 Ticketmaster、StubHub、Resy 等平台合作,实现信息同步与结账转接。

🛍️ AI 购物助手

  • 利用 Shopping Graph + Gemini 提供个性化产品筛选与购买建议;
  • 支持 虚拟试穿功能:上传一张照片即可在数十亿服饰中模拟搭配效果;
  • 可设置价格提醒与自动结账指令(需用户授权);

👤 个人化搜索体验

  • 可选择连接 Gmail 等 Google 应用,允许 AI 在特定情境下使用个人上下文信息
  • 例如:搜索“本周末 Nashville 的音乐与美食活动”,AI 会结合用户的餐厅偏好、机票预订和住宿位置给出个性推荐;
  • 所有信息使用过程用户自主可控,可随时开启/关闭个性数据接入。

📊 自定义图表与数据分析

  • AI Mode 可根据特定问题自动生成图表(例如:两支棒球队主场胜率对比);
  • 支持体育、金融等领域的实时数据可视化。

AI Mode 已于美国全面上线,无需加入 Labs 实验;

新功能(如 Deep Search、Search Live、智能代理)将在未来几周分阶段上线,Labs 用户优先体验;

用户可在 Google App 或搜索页面切换至“AI Mode”标签使用。

官方介绍:https://blog.google/products/search/google-search-ai-mode-update/#ai-mode-search