微比恩 > 信息聚合 > 黄仁勋对话Transformer七子:我们被困在原始模型里,还需要更强大的新架构

黄仁勋对话Transformer七子:我们被困在原始模型里,还需要更强大的新架构

2024-03-21 23:13:40来源: 36氪

作者 | 陈斯达编辑 | 邓咏仪英伟达的万众瞩目GTC大会第三天,黄仁勋又憋出一个大招——集齐“Transformer七子”,来一场圆桌讨论。这场对谈让观众们回到AI浪潮“梦开始的地方”——2017年,谷歌大脑团队发表了一篇名为Attention is all you need 的论文,其中所提出的Transformer架构,为当下大热的ChatGPT、Gemini等大模型打下基础,人工智能领域从此变天。论文的八位作者,也被称为“Transformer八子”。不过,八位作者后来也陆续离开谷歌。除Lukasz Kaiser留在OpenAI外,其他几位作者都选择离开创业,他们创立的很多公司,也成为这一波浪潮中的当红炸子鸡。“Transformer 八子”分别是:Ashish Vaswani,EssentialAI 联合创始人兼 CEONoam Shazeer,Character.AI 首席执行官兼联合创始人Jakob Uszkore

关注公众号