写点什么

谷歌推出 AppFunctions 连接 AI 智能体和 Android 应用

  • 2026-04-13
    北京
  • 本文字数:743 字

    阅读完需:约 2 分钟

谷歌为了将 Android 打造为“智能体优先(agent-first)”的操作系统,推出了全新的早期测试功能,用以支持以任务为核心的模式,应用可以提供功能构块(functional building block),用户可借助 AI 智能体或助手实现自身的目标。

 

这个新模式的核心基础是AppFunctions,这是一个 Jetpack API,开发者可通过它在应用内开放自描述能力,实现与 AI 智能体的无缝衔接。交互在设备本地运行,这降低了网络延迟,同时提升了隐私性与运行效率。

AppFunctions 对标通过 MCP 云服务器声明后端能力的方式,为 Android 应用提供本地化的解决方案,与 WebMCP 一致,函数在设备本地而非服务器端执行。

 

例如,用户可向 Gemini 助手发送指令:“从 Samsung Gallery 展示我家猫的照片”。助手解析指令后调取对应照片并在自身界面展示,图片会保留在上下文中,便于用户在后续操作中编辑、分享或执行其他操作。

 

由于并非所有应用都适配 AppFunctions,尤其在初期阶段,谷歌还在 Android 系统中搭载了 UI 自动化平台,作为未集成应用的备用方案。该自动化层支持用户通过 Gemini 助手完成各类复杂操作,比如,为口味特殊的家人订购披萨、与同事协调多段行程的拼车、复购上次的生鲜商品,全程无需开发者额外适配。

平台承担了核心的运算工作,开发者无需编写代码即可让应用支持智能体交互,无需投入大量工程资源,就能低成本拓展应用的使用场景。

 

谷歌在公告中强调,隐私保护与用户控制权是 AppFunctions 的设计核心。所有交互均在设备本地完成,用户可通过实时视图、通知掌握全部流程,手动干预智能体操作,购物等敏感操作必须经过用户确认。

 

目前 AppFunctions 和 UI 自动化平台仍处于早期测试阶段,仅适配 Galaxy S26 系列机型,计划在 Android 17 版本中全面推送。

 

查看英文原文:Google Unveils AppFunctions to Connect AI Agents and Android Apps