腾讯混元开源手机端离线翻译模型 Hy-MT1.5-1.8B-1.25bit,仅 440MB

就爱百科 百科资讯 2

4 月 29 日消息,今日腾讯混元宣布开源手机端离线翻译模型 Hy-MT1.5-1.8B-1.25bit,把支持 33 种语言的翻译大模型压缩至 440MB,无需联网,下载即可直接在手机本地运行,“翻译质量优于谷歌翻译”。

演示设备:高通骁龙 865,8GB 内存

附官方详细介绍如下:

基于混元翻译大模型 Hy-MT1.5 打造,翻译效果比肩商用翻译模型

Hy-MT1.5 是腾讯混元团队打造的专业翻译大模型,原生支持 33 种语言、5 种方言 / 民汉及 1056 个翻译方向。从常见的中英互译,到法语、日语、阿拉伯语、俄语,甚至藏语、蒙古语等少数民族语言,它都能游刃有余地处理。

仅以 1.8B 参数量,Hy-MT1.5 实现了比肩商业翻译 API 和 235B 级大模型的翻译效果。在严格的评测基准中,其翻译质量不仅超越了谷歌翻译等主流系统,更证明了在高效优化下,轻量级模型能够迸发出令人印象深刻的翻译能力。

Hy-MT1.5-1.8B 翻译效果评分,详情见文末链接「Hy-MT1.5 技术报告」

但问题来了:原始的 1.8B 模型即使在 FP16 精度下,依然占用 3.3GB 内存。对于手机上金子般的内存来说,依然太大、太慢,所以需要量化压缩。

最极致的量化压缩,把模型装进手机

量化压缩,简单来说就是:把模型里原本用 16 位数字 (16-bit) 表示的参数转用更低位数字储存。这就像把一幅高清照片压缩成缩略图,文件小了很多,但你还是能看清楚里面的内容。针对不同的手机用户,腾讯特别推出了 2-bit 与 1.25-bit 两种极致的量化压缩方案。

不同大小的模型在 FLORES-200 中外互译的效果评分

2-bit 模型:性能与质量的平衡(适用:中高端机型)

2-bit 模型采用了业内顶尖的拉伸弹性量化(SEQ),将模型参数量化至 {-1.5,-0.5,0.5,1.5},并结合量化感知蒸馏,在将模型体积压缩至 574MB 的同时,实现了几乎无损的翻译质量,效果超越上百 GB 的大模型。在支持 Arm SME2 技术的移动设备上,2-bit 模型能够实现更快速、更高效的推理。

2-bit 模型在 SME2 及 Neon 内核的速度对比演示

1.25-bit 模型:Sherry 极致压缩(适用:全系机型)

为了达成极致的轻量化,腾讯推出了基于 Sherry(稀疏高效三值量化)技术的 1.25-bit 模型。该技术方案已经被 NLP 顶级学术会议 ACL 2026 录用。

链接:https://arxiv.org/ abs/2601.07892

Sherry 压缩方案的核心逻辑在于“细粒度稀疏”策略:每 4 个模型参数,3 个最重要的用 1-bit 储存,1 个用 0 储存,平均每个参数仅需 1.25-bit。

配合腾讯专门为手机 CPU 设计的 STQ 内核,该方案实现了对 SIMD 指令集的完美适配。最终,3.3GB 的原始模型被进一步压缩至 440MB,轻松常驻后台,让内存紧张的普通手机也能顺滑进行高质量离线翻译。

FP16 (八倍速)vs.1.25bit 速度对比,演示设备:高通骁龙 888,8GB 内存

实际体验:全离线、零成本、零隐私暴露

本次开源不仅包含模型权重,我们还特别制作了一个实际可用的腾讯混元翻译 Demo 版,特别适配了“后台取词模式”。无论是在本地查看邮件还是浏览网页,混元翻译都能随叫随到。无需网络,无需订阅,完全本地处理、不涉及个人信息的采集和上传,一次下载永久使用!

演示设备:高通骁龙 7+gen2,16GB 内存

立即体验

所有的模型权重、代码及技术报告均已全面开源。(暂时只支持安卓体验 demo,后续正式版会添加对 IOS 等平台的支持。)

体验链接:

  • Huggingface(海外用户)::https://huggingface.co/ AngelSlim / Hy-MT1.5-1.8B-1.25bit-GGUF / resolve / main / Hy-MT-demo.apk

  • 魔搭社区(国内用户):https://modelscope.cn/ models / AngelSlim / Hy-MT1.5-1.8B-1.25bit-GGUF / resolve / master / Hy-MT-demo.apk

模型下载

1、Huggingface(海外用户):

  • 2-bit 模型权重:https://huggingface.co/ AngelSlim / Hy-MT1.5-1.8B-2bit

  • 2-bit 模型 gguf:https://huggingface.co/ AngelSlim / Hy-MT1.5-1.8B-2bit-GGUF

  • 1.25-bit 模型权重:https://huggingface.co/ AngelSlim / Hy-MT1.5-1.8B-1.25bit

  • 1.25-bit 模型 gguf:https://huggingface.co/ AngelSlim / Hy-MT1.5-1.8B-1.25bit-GGUF

2、魔搭社区(国内用户):

  • 2-bit 模型权重:https://modelscope.cn/ models / AngelSlim / Hy-MT1.5-1.8B-2bit

  • 2-bit 模型 gguf:https://modelscope.cn/ models / AngelSlim / Hy-MT1.5-1.8B-2bit-GGUF

  • 1.25-bit 模型权重:https://modelscope.cn/ models / AngelSlim / Hy-MT1.5-1.8B-1.25bit

  • 1.25-bit 模型 gguf:https://modelscope.cn/ models / AngelSlim / Hy-MT1.5-1.8B-1.25bit-GGUF

3、技术报告:

  • Sherry 论文地址:https://arxiv.org/ abs/2601.07892

  • AngelSlim 技术报告:https://arxiv.org/ abs/2602.21233

  • Hy-MT1.5 技术报告:https://arxiv.org/ abs/2512.24092

4、代码仓库:

  • AngelSlim: https://github.com/tencent/AngelSlim