微比恩 > 信息聚合 > Meta、OpenAI为何扎堆AI芯片?揭秘大模型背后的算力战争

Meta、OpenAI为何扎堆AI芯片?揭秘大模型背后的算力战争

2024-01-25 13:40:18来源: 钛媒体

图片来源@视觉中国文|读懂财经上周,AI行业发生了两件大事。1月19日,Meta首席执行官扎克伯格宣布,Meta内部正在训练下一代模型Llama 3。截至今年年底,Meta将会有近35万块H100搭建的基础设施。1月21日,有媒体爆出消息,OpenAI CEO奥特曼正在筹集数十亿美元,建立一个全球性的AI芯片工厂网络。这两件事其实都和一个东西有关——算力。在生成式 AI 快速爆发的时代,算力短缺是运行 AI 模型面临的主要困难,GPT-4、Gemini、Llama 2 和其他模型严重依赖 H100 GPU,但H100产能却严重受限。即使像微软、Meta 这样大型科技公司,也需要提前数年预定产能,才能获得足够的新型芯片,更不用说OpenAI了。AI产业算力短缺的根源在于,在摩尔定律主导下,性能每18-24个月翻一番的芯片,难以满足大模型参数规模的指数级增长。用OpenAI的话说,每年训练AI模型所需算力增长

关注公众号