WAP手机版 RSS订阅 加入收藏  设为首页
888大发真人
当前位置:首页 > 888大发真人

888大发真人:大规模模型的发展引起了广泛关注

时间:2021/9/29 12:44:57   作者:   来源:   阅读:19   评论:0
内容摘要:源1.0模型参数尺度为2457亿,用于训练的中文数据集达到5000GB。与GPT3模型的1750亿参数量和570GB训练数据集相比,源1.0参数比例领先40%,训练数据集比例领先近10倍。“源代码1.0”能做什么?在语言智力方面,在汉语理解测评基准CLUE列表中获得零样本学习和小样本学习冠军。在零样本学习列表中,“So...

源1.0模型参数尺度为2457亿,用于训练的中文数据集达到5000GB。与GPT3模型的1750亿参数量和570GB训练数据集相比,源1.0参数比例领先40%,训练数据集比例领先近10倍。

“源代码1.0”能做什么?在语言智力方面,在汉语理解测评基准CLUE列表中获得零样本学习和小样本学习冠军。

在零样本学习列表中,“Source 1.0”比行业最高分高出18.3%,在文档分类、新闻分类、产品分类、母语汉语推理、习语阅读理解、名词代词关系6个任务中获得冠军;文档分类、产品分类、文档摘要识别和名词代词关系是小样本学习的主要任务。在成语阅读理解填词项目中,元1.0的表现已经超过了人类的得分。

在“源1.0”的“图灵测试”中,源1.0模型生成的对话、小说续篇、新闻、诗歌、对联等都与人类创作的类似作品混合在一起,被人群区分开来。测试结果表明,人群能够准确区分人与“元1.0”作品的成功率一直低于50%。

大规模模型的发展引起了广泛关注。斯坦福大学李菲菲教授等人工智能领域的知名学者最近在一篇论文中指出,这种类型的海量模型的意义在于突现性和同质性。“新兴”是指隐藏的知识和巨型模型的推理能够带来激动人心的科学创新灵感;“同质”是指庞大的模型可以为众多应用任务的泛化提供统一、强大的算法支持。

“Source 1.0”中文海量模型的发布,使得中国学术界和业界可以使用通用的海量语言模型,大大降低了语言模型适应不同应用场景的难度;同时,它改善了小样本的学习和学习。零样本学习场景的模型泛化应用能力。

浪潮人工智能研究院表示,“Source 1.0”将对学术研究单位和工业实际用户进行开源、开放、共享,降低大规模模型研究和应用的门槛,有效推动人工智能产业化和工业人工智能的进步。为国家人工智能研究创新和产业发展做出贡献。


本站所有站内信息仅供娱乐参考,不作任何商业用途,不以营利为目的,专注分享快乐,欢迎收藏本站!
所有信息均来自:百度一下(888澳门集团娱乐网址