Google开源支持55中语言128k上下文翻译模型 TranslateGemma

2026 年 1 月,Google 正式推出全新开源翻译模型家族 TranslateGemma,引发行业广泛关注。
该模型基于 Gemma 3 架构打造,并非通用模型的简单适配,而是针对翻译任务进行深度优化,旨在让高质量翻译能力触达更多开发者。

TranslateGemma 提供 4B、12B、27B 三种参数规格,适配不同硬件场景:4B 模型体积小巧,可在手机等边缘设备本地运行;12B 模型能流畅运行于消费级笔记本;27B 模型则需云端 GPU 支持,适用于高负载需求。
其支持 55 种主流语言,还具备 128K 超长上下文处理能力,在 WMT24++ 翻译基准测试中,12B 版本性能甚至超越 Gemma 3 27B 模型,实现更小体量、更高效率。

目前,全系列模型已在 Kaggle 和 Hugging Face 开放下载,无商业使用限制与强制署名要求。这一举措颠覆传统翻译服务模式,将原本依赖付费 API 的 “工具级能力” 转化为可本地部署、私有化定制的基础能力,为隐私敏感机构、初创团队及开发者提供新选择,也推动翻译技术走向民主化。
使用代码
from transformers import pipe...
点击查看剩余70%
网友评论