Google新算法压缩LLM存储器用量 边缘装置迎来新契机
- 张品萱/综合报导
Google研究部门近日发表名为TurboQuant的大型语言模型(LLM)压缩演算法,可在不损失模型精准度的前提下,将存储器用量降低6倍、运算速度提升最高8倍,有望大幅压低推论(inference)成本,并为移动设备端AI开辟新可能。
会员登入
会员服务申请/试用
申请专线:
+886-02-87125398。
(周一至周五工作日9:00~18:00)
+886-02-87125398。
(周一至周五工作日9:00~18:00)
关键字





