微比恩 > 信息聚合 > 为降低 ChatGPT 危险性,OpenAI 建立一支“红队”

为降低 ChatGPT 危险性,OpenAI 建立一支“红队”

2023-04-14 16:51:28来源: IT之家

北京时间 4 月 14 日消息,埃隆・马斯克 (Elon Musk) 曾放言,人工智能 (AI) 比核武器还要危险。为了降低 ChatGPT 的危险性,OpenAI 建立了一支“红队”。“红队”是 AI 领域的一个术语,指的是进行渗透测试的攻击方。“红队”发起攻击,AI 进行防守,通过对抗测试来找出 AI 的不足,然后进行改进。去年,OpenAI 聘请了 50 名学者和专家来测试最新 GPT-4 模型。在六个月的时间里,这支“红队”将“定性探测和对抗性测试”新模型,试图“攻破”它。神经毒剂美国罗切斯特大学的化学工程教授安德鲁・怀特 (Andrew White) 就是 OpenAI 聘请的专家之一。当他获准访问 GPT-4 后,他用它来推荐一种全新的神经毒剂。怀特称,他曾让 GPT-4 推荐一种可以充当化学武器的化合物,并使用“插件”为模型提供新的信息来源,例如科学论文和化学品制造商名录。接着,GPT-4 甚至找到了制造它的地方。

关注公众号
标签: ChatGPT AI OpenAI