微比恩 > 信息聚合 > 120 亿参数 Stable LM 2 上线即开源:2 万亿 token 训练,碾压 Llama 2 70B

120 亿参数 Stable LM 2 上线即开源:2 万亿 token 训练,碾压 Llama 2 70B

2024-04-09 22:26:51来源: IT之家

Stability AI 推出 Stable LM 2 12B 模型,作为其新模型系列的进一步升级,该模型基于七种语言的 2 万亿 Token 进行训练,拥有更多参数和更强性能,据称在某些基准下能超越 Llama 2 70B。继 16 亿轻量级 Stable LM 2 推出之后,12B 参数的版本在今天亮相了。见状,不少网友纷纷喊话:干的漂亮!但,Stable Diffusion 3 啥时候出啊?总得来说,Stable LM 2 12B 参数更多,性能更强。120 亿参数版本包含了基础模型和指令微调模型,并在七种多语言,高达 2 万亿 Token 数据集上完成训练。在基准测试中,其性能赶超 Llama 2 70B 等开源模型。官博介绍,最新版本的模型兼顾了性能、效率、内存需求和速度,同时继续采用了 Stable LM 2 1.6B 模型的框架。通过这次更新,研究人员还为开发者提供了一个透明而强大的工具,以推动 AI 语言技术的创

关注公众号
标签: 开源