人生箴言
成熟意味着停止展示自己并隐藏自己
随机文章
- 张雨霏破了自己上午刚破的纪录 网友纷纷祝贺 !
- 《赛博朋克2077:往日之影》IGN9分:终是3年前所期待的样子 !
- 将创今年新高!国内油价或破9元:国际油价拦不住 欲破100美元 !
- 华为盘古气象大模型新增降水预测!挑战暴雨红色预警提前24小时 !
- 女子翻护栏捡手机坠下40米瀑布身亡: 大家都劝她不要去 !
- 山西太原5车相撞 面包车被压货车下:事故造成1人死亡、2人受伤 !
- 美媒:美国发布对华芯片设限最终规则 10年内不得扩产 !
- 卢伟冰打造的Redmi Note 13 Pro未发先火:已有4000多人下单 !
- 山东菏泽多人在河边转圈念经 放生百余盆蜗牛 ! 工作人员回应:蜗牛不能随便放生 !
- 湖南一初中生疑遭体罚住进ICU !教育局回应:所了解情况与家属反映不一致 !
10月5日消息,据报道,华为苏黎世的实验室发布了一种新的开源量化方法,可在不牺牲大模型输出质量的情况下,减少显存需求。
该技术名为 SINQ(Sinkhorn-Normalized Quantization),目前已在GitHub和Hugging Face上开源,采用Apache 2.0许可,允许企业和研究机构免费使用、修改和商业部署。

SINQ的核心优势在于其快速、无需校准,并且易于集成到现有模型工作流中,通过独特的量化方法,将模型的显存需求降低了60%至70%,具体取决于模型架构和位宽。
这意味着原本需要超过60GB显存才能运行的模型,现在可以在大约20GB的环境中运行。原本需要在高端企业级GPU(如A100或H100)才能运行的大模型,如今可在更经济的硬件上运行,例如单张RTX 4090。
SINQ已在多种架构和模型(如Qwen3系列、LLaMA和DeepSeek)上进行了评估,并在WikiText2和C4等基准测试中表现出色,显著降低了困惑度和翻转率。
它还支持非均匀量化方案(如NF4),并可与校准方法(如AWQ)结合使用,进一步缩小与全精度模型的差距。
在运行效率方面,SINQ的量化速度比HQQ快约两倍,比AWQ快30倍以上,非常适合对量化时间有实际限制的研究和生产环境。


