微比恩 > 信息聚合 > PyTorch 造大模型“加速包”,不到 1000 行代码提速 10 倍!英伟达科学家:minGPT 以来最好的教程式 …

PyTorch 造大模型“加速包”,不到 1000 行代码提速 10 倍!英伟达科学家:minGPT 以来最好的教程式 …

2023-12-03 20:26:39来源: IT之家

PyTorch 团队让大模型推理速度加快了 10 倍。且只用了不到 1000 行的纯原生 PyTorch 代码!项目名为 GPT-fast,加速效果观感是这样婶儿的:通畅,属实通畅!重点是,团队直接放出了代码以及详细“教程”。还是简笔画版的那种,特别好理解。开发团队成员 @Horace He 表示:我们不把它看作是库或者框架,更希望大家能把它当成个例子,根据自己的需求“复制粘贴”。网友直接炸开锅,英伟达 AI 科学家 Jim Fan 评价道:这是自 Andrej Karpathy 发布的 minGPT 以来最棒的教程式 repo 之一!开源世界需要更多 minGPT、GPT-Fast 这样的项目!那么 GPT-fast 究竟是如何给大模型提速的?开盒大模型“加速包”总的来说,用到这几种方法:Torch.compile:一个专门为 PyTorch 模型设计的编译器,可以提升模型运行效率。GPU 量化:通过减少计算的精度来加速模型的

关注公众号
标签: 英伟达 大模型