Google新算法压缩LLM存储器用量 边缘装置迎来新契机 智能应用 影音
236
英飞凌AI
Event

Google新算法压缩LLM存储器用量 边缘装置迎来新契机

  • 张品萱综合报导

Google研究部门近日发表名为TurboQuant的大型语言模型(LLM)压缩演算法,可在不损失模型精准度的前提下,将存储器用量降低6倍、运算速度提升最高8倍,有望大幅压低推论(inference)成本,并为移动设备端AI开辟新可能。

会员登入


【范例:user@company.com】

忘记口令 | 重寄启用信
记住帐号口令
★ 若您是第一次使用会员数据库,请先点选
【帐号启用】

会员服务申请/试用

申请专线:
+886-02-87125398。
(周一至周五工作日9:00~18:00)
会员信箱:
member@digitimes.com
(一个工作日内将回覆您的来信)