谷歌为了将 Android 打造为“智能体优先(agent-first)”的操作系统,推出了全新的早期测试功能,用以支持以任务为核心的模式,应用可以提供功能构块(functional building block),用户可借助 AI 智能体或助手实现自身的目标。
这个新模式的核心基础是AppFunctions,这是一个 Jetpack API,开发者可通过它在应用内开放自描述能力,实现与 AI 智能体的无缝衔接。交互在设备本地运行,这降低了网络延迟,同时提升了隐私性与运行效率。
AppFunctions 对标通过 MCP 云服务器声明后端能力的方式,为 Android 应用提供本地化的解决方案,与 WebMCP 一致,函数在设备本地而非服务器端执行。
例如,用户可向 Gemini 助手发送指令:“从 Samsung Gallery 展示我家猫的照片”。助手解析指令后调取对应照片并在自身界面展示,图片会保留在上下文中,便于用户在后续操作中编辑、分享或执行其他操作。
由于并非所有应用都适配 AppFunctions,尤其在初期阶段,谷歌还在 Android 系统中搭载了 UI 自动化平台,作为未集成应用的备用方案。该自动化层支持用户通过 Gemini 助手完成各类复杂操作,比如,为口味特殊的家人订购披萨、与同事协调多段行程的拼车、复购上次的生鲜商品,全程无需开发者额外适配。
平台承担了核心的运算工作,开发者无需编写代码即可让应用支持智能体交互,无需投入大量工程资源,就能低成本拓展应用的使用场景。
谷歌在公告中强调,隐私保护与用户控制权是 AppFunctions 的设计核心。所有交互均在设备本地完成,用户可通过实时视图、通知掌握全部流程,手动干预智能体操作,购物等敏感操作必须经过用户确认。
目前 AppFunctions 和 UI 自动化平台仍处于早期测试阶段,仅适配 Galaxy S26 系列机型,计划在 Android 17 版本中全面推送。
查看英文原文:Google Unveils AppFunctions to Connect AI Agents and Android Apps





