微比恩 > 信息聚合 > 2457亿,全球最大巨量模型“源”发布:怎么用,挑战在哪儿?

2457亿,全球最大巨量模型“源”发布:怎么用,挑战在哪儿?

2021-09-30 21:35:00来源: 钛媒体

图片来源@视觉中国浪潮日前发布的巨量模型源1.0引起了业界专家的关注。据说该模型参数规模达到了2457亿,训练采用的中文数据集达5000GB。相比OpenAI 去年推出的GPT-3模型(1750亿参数量,570GB训练数据集),源1.0参数规模领先40%,训练数据集规模领先近10倍。因此,浪潮源1.0也被称为全球最大规模的人工智能巨量模型。在源1.0发布当日,浪潮还同步举行了一个研讨会,来自国内自然语言理解领域的近20位专家、院士参加研讨,就巨量模型的应用前景与挑战都发表了个人看法。源1.0是什么?怎么用?就像上文提到的,源1.0是用5000GB的中文数据集训练而来,所以源1.0本质上是一个偏向于中文语言的巨量模型,且其未来应用的突破点也主要会在NLP(自然语言处理)领域进行先期切入。在传统的人工智能语言模型训练中,由于计算资源等各种条件限制,业界的语言模型往往针对某个小场景,通用性不强。而由于巨量模型采用的数据集够大

关注公众号