语言模型越来越厉害,也越来越大。如何在不扩大规模的情况下提升模型性能?谷歌 AI 想出了一个「强强联合」的好点子。近年来,语言模型(LM)在自然语言处理(NLP)研究中变得更加突出,在实践中也越来越有影响力。一般来说,扩大模型的规模已被证明可以提升在一系列 NLP 任务中的性能。不过,扩大模型规模的挑战也是显而易见的:训练新的、更大的模型需要大量的计算资源。此外,新的模型往往是从头开始训练的,无法利用以前的模型的训练权重。对于这个问题,谷歌的研究人员探讨了两种互补的方法,在不额外消耗大量计算资源的情况下,大幅提高现有语言模型的性能。首先,在 「Transcending Scaling Laws with 0.1% Extra Compute」一文中,研究人员介绍了 UL2R,这是一个轻量级的第二阶段预训练模型,使用一个混合 enoisers 目标。UL2R 提高了一系列任务的性能,甚至在以前具有接近随机性能的任务上释放出突发性能
算力就这么点,为了提升语言模型性能,谷歌想了个新点子
2022-12-13 17:57:07来源: IT之家

关注公众号
赞
你的鼓励是对作者的最大支持
- 初探谷歌 Gemini 视频解析功能,AI 准确识别视频拍摄场所2025-04-22 15:37:04
- 谷歌反击:不服垄断裁决,誓言上诉2025-04-19 07:12:57
- 27B 显存需求 54 → 14.1GB:谷歌发布 Gemma 3 QAT AI 模型,RTX 3090 显卡可运行2025-04-19 09:52:27
- 谷歌发布 ChromeOS M135 稳定版:蓝牙连接更顺畅、搜图更人性化2025-04-19 10:31:52
- 初探谷歌安卓 16 Beta 4 更新:优化息屏常显、增强 Pixel 启动器2025-04-19 12:23:20
- 谷歌 Gemini 2.5 Flash 混合推理 AI 模型上线:性能成本双优2025-04-18 14:59:20
- 谷歌 Pixel 10 / Pro / Pro XL 系列手机预装壁纸曝光2025-04-17 21:40:20
- 最强 AI 搜索模型:Perplexity 竞技场夺冠,Sonar 力克谷歌 Gemini2025-04-16 11:02:37
- 手机电量莫名耗尽?谷歌新工具专治后台“捣乱”安卓应用2025-04-16 11:23:38
- 谷歌宣布未来全球谷歌搜索流量均将重定向至主域名 google.com2025-04-16 11:41:54