1月15日,谷歌宣布推出基于Gemma3架构的TranslateGemma开放翻译模型系列,包含4B、12B和27B三种参数规模。这些模型支持55种核心语言及多模态图像翻译,并已在Kaggle和HuggingFace开放下载。性能测试显示,TranslateGemma12B版本的翻译质量超越了参数量大其两倍的Gemma327B基线模型,意味着开发者可以以更低的算力资源获得更高保真的翻译结果,提升吞吐量并降低延迟。同时,4B模型也展现出与12B基线模型相当的性能,为移动端和边缘计算设备提供了强大的翻译能力。
TranslateGemma的技术优势在于其独特的“两阶段微调”工艺,包括监督微调(SFT)和强化学习(RL)阶段。在语言覆盖方面,模型重点优化并验证了55种核心语言,并探索训练近500种语言,为学术界研究濒危语言提供了基础。得益于Gemma3架构,新模型保留了多模态能力,无需额外针对视觉任务进行微调,其在文本翻译上的提升直接增强了图像内文字的翻译效果。
TranslateGemma的三种尺寸模型对应不同的部署场景:4B模型专为手机和边缘设备优化,12B模型适配消费级笔记本电脑,27B模型则面向追求极致质量的场景。所有模型均已在Kaggle、HuggingFace及VertexAI上线。


