\

类ChatGPT交互性:IPU现已支持Dolly 2.0开源语言模型

作者:

分享  

Share on weixin
Share on weibo
Share on linkedin

订阅

Dolly 2.0是一个开源的大型语言模型(LLM),可以提供类似ChatGPT的指令跟随交互性。Dolly 2.0现已面世,并可以作为Paperspace Gradient Notebook运行,这些Notebook由Graphcore(拟未) IPU提供支持。

Dolly 2.0 推理

这个120亿参数的模型由Databricks创建,基于EleutherAI的Pythia。

Dolly 2.0的训练权重、源代码和数据集已在开源和商业使用许可下发布,使其成为第一个真正开放的指令微调LLM。之前的模型受制于更严格的许可,无法用于商业应用。

面向人机交互训练大型语言模型

当人们试图从尚未经过适当微调的LLM中获取答案时,需要进行提示工程才能持续产生有用的反馈。这个过程可能会使很多用户感到沮丧。这是因为基本的LLM是被训练来简单地预测下一个token,而这与好的回答甚至是正确的回答之间没有必然联系。

在指令跟随数据集上进行微调会使模型更适合与人类互动:只需向模型提出问题就能得到回复。这使它成为问答应用的理想选择。

大型语言模型与商业限制

Dolly 2.0的前身Dolly 1.0是使用斯坦福大学的Alpaca数据集训练的。Alpaca则使用了OpenAI的ChatGPT的一些输出。因此,Dolly 1.0受到ChatGPT关于商业使用许可的限制,阻碍了Dolly的用户围绕该模型建立产品和服务。

在这方面,Dolly 1.0并非个例。类似的限制影响了许多最近发布的指令跟随型LLM,包括Koala、GPT4All和Vicuna。

生成原始数据集

为了解决这些问题,Databricks团队需要生成一个由人类编写的训练数据语料库,其规模类似于OpenAI用来训练InstructGPT(ChatGPT的姐妹模型)的13,000个提示-响应对(prompt-response pair)。

该公司转向了它的5,000名员工,通过举办编写指令和响应对的竞赛,将创建训练数据的过程游戏化。在七个特定的数据集任务中,排名前20位的标注者可以获得奖品。通过这种方法,再加上竞争性的排行榜,Databricks成功地创建了一个有15,000多个指令-响应对(instruction-response pair)的数据集。

数据集任务包括以下内容(来自Databricks的博客):

开放式问答:例如,“为什么人们喜欢喜剧电影?”或者“法国的首都是哪个城市?”在某些情况下,没有一个正确的答案,而在其他情况下,需要借鉴整个世界的知识。

封闭式问答:这些问题只需使用参考文献中的信息就可以回答。例如,鉴于维基百科上关于原子的一段话,人们可能会问:“原子核中,质子和中子的比例是多少?”

从维基百科中提取信息:注解器将从维基百科上复制一个段落,并从该段落中提取实体或其他事实信息,如权重或尺寸。

归纳维基百科上的信息:注解器提供了维基百科上的一段话,并被要求将其提炼为一个简短的摘要。

头脑风暴:这项任务要求进行开放式构思,并列出相关的可能选项。例如,“这个周末我可以和朋友们做哪些有趣的活动?”

分类:在这项任务中,注解器被要求对类别成员进行判断(例如,列表中的项目是动物、矿物还是蔬菜),或者判断一段短文的属性,例如电影评论的情绪。

创意写作:这项任务将包括写诗或写情书等内容。

由此产生的模型Dolly 2.0是在Creative Commons Attribution-ShareAlike 3.0 Unported License下授权的,允许任何人使用和修改,以及使用它创建商业应用程序。

值得注意的是,Dolly 2.0仍在积极开发中。我们可以期待在不久的将来看到更多性能更好的版本。

入门:如何在IPU上使用Dolly 2.0

您可以使用由Graphcore IPU驱动的Paperspace Gradient Notebook,免费试用Dolly 2.0。

该notebook会带您完成下载模型权重、创建推理流水线,以及使用指令和问题向Dolly 2.0提问等过程。

Dolly 2.0适合我们Paperspace免费层级的环境,该环境使用一个Graphcore POD4系统。我们计划在适当的时候对其进行扩展,以便在POD16系统上进行更快的推理。如欲开始体验,请访问下方的Paperspace Gradient链接:

Dolly 2.0 推理

与Dolly互动是一个很有趣的过程。通过微调,它还可以在回答用户问题时具备特定的个性。现在,它可以与适当的安全过滤器一起使用,以获得真实世界的信息,或者只是作为一个有趣的品牌角色。

如果您有兴趣使用您自己的数据集在IPU上微调Dolly 2.0,欢迎填写表格,我们将为您提供启用帮助。

More Posts

ChatGPT开源平替:OpenAssistant OASST1微调版Pythia-12B

Flan-T5:用更小且更高效的LLM实现出色效果

详细攻略:在IPU上以float16精度运行FLAN-T5-XL推理

较小模型,超高性能:DeBERTa和自然语言理解的未来

PackedBert:如何用打包的方式加速Transformer的自然语言处理任务

Pienso为企业提供由云上IPU支持的高效大型语言模型访问

获取最新的GRAPHCORE资讯

在下方注册以获取最新的资讯和更新:




    获取最新的GRAPHCORE资讯

    在下方注册以获取最新的资讯和更新: