人生箴言
成熟意味着停止展示自己并隐藏自己
随机文章
- 开幕式第一个显眼包出现了:有位小朋友卖力拍打篮球 十分可爱 !
- 郑州离婚每天只放5个号?假的,每天线上、线下预约名额均为10个,共发放40个 !
- iPhone 15发热严重 有人称被烫伤!老用户喊话:前几代也很热 苹果通病 !
- 巴西男子练习射击意外将自己击毙 !网友:点也太背了!
- 涉1.4亿元盗版教材案告破:查获了280万余册盗版中小学教材 !
- 孟美岐坦言自己2年没有工作:她被淘汰却赢得尊重与掌声!
- 张颂文获金熊猫奖最佳男配角:电影《不止不休》立功 !
- iPhone 15登上京东百亿补贴:256G到手6458元 性价比暴增 !
- 哈工大回应保安禁止导盲犬入内:怕狗伤人,盲人如需进入参观,可派专人陪同 !
- 颈椎不好建议别睡软枕头:容易落枕 越睡越累 !
10月5日消息,据报道,华为苏黎世的实验室发布了一种新的开源量化方法,可在不牺牲大模型输出质量的情况下,减少显存需求。
该技术名为 SINQ(Sinkhorn-Normalized Quantization),目前已在GitHub和Hugging Face上开源,采用Apache 2.0许可,允许企业和研究机构免费使用、修改和商业部署。

SINQ的核心优势在于其快速、无需校准,并且易于集成到现有模型工作流中,通过独特的量化方法,将模型的显存需求降低了60%至70%,具体取决于模型架构和位宽。
这意味着原本需要超过60GB显存才能运行的模型,现在可以在大约20GB的环境中运行。原本需要在高端企业级GPU(如A100或H100)才能运行的大模型,如今可在更经济的硬件上运行,例如单张RTX 4090。
SINQ已在多种架构和模型(如Qwen3系列、LLaMA和DeepSeek)上进行了评估,并在WikiText2和C4等基准测试中表现出色,显著降低了困惑度和翻转率。
它还支持非均匀量化方案(如NF4),并可与校准方法(如AWQ)结合使用,进一步缩小与全精度模型的差距。
在运行效率方面,SINQ的量化速度比HQQ快约两倍,比AWQ快30倍以上,非常适合对量化时间有实际限制的研究和生产环境。


