据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源、降低成本,还能推动LLM在手机和笔记本电脑上高效使用。
团队举例称,当人们使用ChatGPT时,请求会被发送到OpenAI公司的后端服务器进行处理。这一过程不仅成本高昂、能耗巨大,通常还很慢。如果用户想要使用消费级图形处理单元运行LLM,就需要对这些LLM进行压缩。
CALDERA算法通过减少LLM冗余并降低信息层的精度来发挥作用。“瘦身”后的LLM更加精简,可在手机或笔记本电脑等设备上存储和访问,同时提供了与未压缩版本几乎一样准确而微妙的性能。
虽然CALDERA并非首个压缩LLM的算法,但其独特之处在于兼具“低精度”和“低排序”两种特性。其中,“低精度”减少了比特数,加快了数据存储和处理速度。而“低排序”则降低了LLM数据中的冗余。
团队表示,使用CALDERA压缩的LLM可能适用于那些对精度要求不是最高的场景。此外,用户可在智能手机或笔记本电脑等设备上对压缩后的LLM进行微调,这使其能根据特定需求调整模型来增强隐私,而无需与第三方共享敏感数据。
不过团队也提醒道,在智能手机或笔记本电脑上运行LLM,可能会占用设备内存。(来源 科技日报 记者 刘霞)
© 版权声明
1. 本平台所有原创文章(包括但不限于文字、配图、排版设计等原创内容),均遵循 知识共享署名 - 非商业性使用 4.0 国际许可协议(CC BY-NC 4.0) 对外授权,任何主体使用时需严格遵守协议约定。
2. 本平台转载文章的版权归原作者或原版权方所有,文中观点不代表本平台立场。本平台对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。
3. 转载仅为传递行业资讯、实用知识等有益信息,不以盈利为目的;若涉及侵权,本平台在收到原方有效通知后将立即删文并配合处理,不承担额外法律责任。
4. 联系方式:hr@szsyw.cn
5. 微信公众号: 扫码关注

相关文章
没有相关内容!
暂无评论...
