Google 正式发布了 FunctionGemma,这是其 Gemma 3 270M 模型的一个全新轻量化版本。该模型经过专门微调,能够将自然语言指令精准转化为结构化的函数和 API 调用,从而让 AI 代理超越“空谈”,具备真正的执行力。
在 Gemma 3 270M 发布数月后,为了响应开发者日益增长的需求,Google 赋予了该模型原生的函数调用(Function Calling)能力,使其进化为 FunctionGemma。
本地化运行赋予了该模型双重身份:它既可以作为一个独立的代理,处理私密且离线的任务;也可以充当“智能流量调度员”,将更复杂的请求路由至更大规模的远程模型。
这一特性在端侧(On-device)应用中尤为引人注目。AI Agent 可以借此实现从设置提醒到切换系统设置等一系列复杂的多步工作流自动化。为了在边缘计算场景中实现这一目标,模型必须足够轻量以支持本地运行,同时又必须具备极高的专业化程度以保证可靠性。
Google 解释称,FunctionGemma 的初衷并非用于零样本提示(Zero-shot prompting),而是旨在让开发者进行深度定制,从而构建出快速、私密且能将自然语言转化为可执行 API 操作的端侧代理。这种方法是模型达到生产级性能的关键。
在 Google 的“移动操作(Mobile Actions)”测试评估中,微调技术显著提升了模型的可靠性,将其准确率从 58% 的基准线大幅拉升至 85%。
在硬件适配方面,该模型专为手机和 NVIDIA Jetson Nano 等资源受限的设备设计。它利用 Gemma 家族的 256k 词表,能够高效地对 JSON 数据和多语言输入进行分词处理。
FunctionGemma 支持 Google 所称的“统一行动与对话”模式。这意味着模型既能生成用于调用工具的结构化代码或函数,又能无缝切换回自然语言,向用户解释执行结果。
Google 同时指出,FunctionGemma 拥有广泛的生态系统支持。开发者可以使用 Hugging Face Transformers、Unsloth、Keras 或 NVIDIA NeMo 等框架进行微调,并通过 LiteRT-LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI 或 LM Studio 等平台进行部署。
针对开发者,Google 明确列出了 FunctionGemma 的最佳适用场景,包括:拥有明确的 API 接口、愿意进行模型微调、优先考虑本地化部署,或正在构建结合端侧与远程任务的复杂系统。
为了展示模型的实战能力,Google 发布了多个演示项目,包括 Mobile Actions、TinyGarden 和 Physics Playground。这些演示均可通过 Play 商店中的 Google AI Edge Gallery 应用进行体验:
Mobile Actions:解析诸如“为明天的午餐创建一个日历行程”、“将 John 添加到联系人”或“打开手电筒”等自然语言指令,并将其映射到相应的操作系统级工具调用。
TinyGarden:一款语音控制游戏。玩家给出“在顶排种下向日葵并浇水”等指令,模型会将其分解为带有坐标目标的 plantCrop 和 waterCrop 等具体函数调用。
Physics Playground:一个交互式物理益智演示。它使用自然语言指令控制游戏内的模拟动作,并利用 Transformer.js 展示了客户端 JavaScript 的集成能力。
目前,FunctionGemma 已在 Hugging Face 和 Kaggle 上线。此外,Google 还提供了 Colab 笔记本和 mobile-actions 数据集,以帮助开发者更轻松地对模型进行专业化训练。
原文链接:
https://www.infoq.com/news/2026/01/functiongemma-edge-function-call/





