不过,扩大模型规模的挑战也是显而易见的:训练新的、更大的模型需要大量的计算资源。此外,新的模型往往是从头开始训练的,无法利用以前的模型的训练权重。
对于这个问题,谷歌的研究人员探讨了两种互补的方法,在不额外消耗大量计算资源的情况下,大幅提高现有语言模型的性能。
首先,在 「transcending scaling laws with 0.1% extra compute」一文中,研究人员介绍了ul2r,这是一个轻量级的第二阶段预训练模型,使用一个混合enoisers目标。ul2r提高了一系列任务的性能,甚至在以前具有接近随机性能的任务上释放出突发性能。
论文链接:https://arxiv.org/pdf/2210.11399.pdf
另外,在「scaling instruction-finetuned language models」中,探讨了在一个以指令为措辞的数据集上微调语言模型的问题,这个过程我们称为 flan。这种方法不仅提高了性能,而且还提高了语言模型对用户输入的可用性。
论文链接:https://arxiv.org/abs/2210.11416
最后,flan和ul2r可以作为互补技术结合在一个名为flan-u-palm 540b的模型中,该模型在一系列具有挑战性的评估基准中,比未经调整的palm 540b模型表现高出10%。
ul2r的训练传统上,大多数语言模型都是在因果语言建模目标上进行预训练,使模型能够预测序列中的下一个词(如gpt-3或palm)或去噪目标,其中模型学习从损坏的单词序列中恢复原句(如t5)。
尽管在语言建模目标中存在一些权衡,即因果关系的语言模型在长句生成方面表现更好,而在去噪目标上训练的语言模型在微调方面表现更好,但在之前的工作中,研究人员表明,包括这两个目标的混合enoisers目标在两种情况下都能取得更好的性能。
不过,在不同的目标上从头开始对大型语言模型进行预训练,在计算上是很困难的。因此,我们提出了ul2修复(ul2r),这是一个用ul2目标继续预训练的附加阶段,只需要相对较少的计算量。
我们将ul2r应用于palm,并将产生的新语言模型称为u-palm。
在实证评估中,我们发现,只需少量的ul2训练,模型就会有大幅改善。
例如,通过在palm 540b的中间检查点上使用ul2r,可以达到palm 540b在最终检查点的性能,同时使用了2倍的计算量。当然,将ul2r应用于最终的palm 540b检查点也会带来巨大的改进。
palm 540b和u-palm 540b在26个nlp基准上的计算与模型性能对比。u-palm 540b继续训练palm,计算量非常小,但在性能上有很大的提升。
使用ul2r的另一个好处是,它在一些任务上的性能比纯粹在因果语言建模目标上训练的模型好得多。例如,有许多big-bench任务具备所谓「新兴能力」,即只有在足够大的语言模型中才有的能力。
虽然最常见的发现新兴能力的方式是通过扩大模型规模,但ul2r实际上可以在不扩大模型规模的情况下激发新兴能力。
比如在big-bench的导航任务中,衡量模型进行状态跟踪的能力,除了u-palm,所有模型的训练flops少于10^23个。另一个例子是big-bench的snarks任务,该任务衡量模型检测讽刺语言的能力。
对于来自big-bench的两种能力,展示了新兴的任务性能,u-palm由于使用了ul2r目标,所以在较小的模型规模下实现了新兴性能。
指令微调在第二篇论文中,我们探讨了指令微调,这涉及到在一组以指令为措辞的nlp数据集上对lm进行微调。
在之前的工作中,我们将指令微调应用于62个nlp任务的137b参数模型,比如回答一个小问题,对电影表达的情感进行分类,或者将句子翻译成西班牙语等。
在这项工作中,我们在超过1.8k的任务上微调了540b参数的语言模型。此外,以前的工作只对有少量例证的语言模型(如metaicl)或无例证的零例证语言模型(如flan、t0)进行微调,而我们对两者的组合都进行了微调。
我们还包括思维链微调数据,这使得模型能够进行多步骤推理。我们把我们改进的方法称为 flan,用于微调语言模型。
值得注意的是,即使在1.8k的任务上进行微调,与预训练相比,flan只用了一小部分的计算量(对于palm 540b,flan只需要预训练计算量的0.2%)。
在1.8k个以指令形式表述的任务上对语言模型进行微调,并在新任务上对模型进行评估,这些任务不包括在微调中。分别在有/无示例的情况下进行微调(即0-shot 和 few-shot),以及有/无思维链的情况下进行微调,使模型可以在一系列评估场景中推广开来。
本文中,一系列规模的lm进行了指令-微调,目的是研究同时扩大语言模型的规模和增加微调任务数量的共同效果。
例如,对于palm类语言模型,包括8b、62b和540b参数规格。在四个具有挑战性的基准评估标准(mmlu、bbh、tydiqa和mgsm)上评估了我们的模型,发现扩大参数数量和微调任务数量都能提高在此前未见的新任务上的性能表现。
扩大到540b的参数模型和使用1.8k的微调任务都能提高性能。上图y轴是四个评估套件(mmlu、bbh、tydiqa和mgsm)的归一化均值。
除了更好的性能之外,指令微调lm能够在推理时对用户的指令做出反应,而不需要少量的示例或提示工程。这使得lm在一系列的输入中更加方便用户。例如,没有指令微调的lm有时会重复输入或不能遵循指令,但指令微调可以减轻这种错误。
我们的指令微调语言模型flan-palm与没有指令微调的palm模型相比,对指令的反应更好。
强强联合,实现「1+1>2」最后,我们表明,ul2r和flan可以结合起来训练flan-u-palm模型。
由于flan使用来自nlp任务的新数据,并能实现零点指令跟踪,我们将flan作为ul2r之后的次选方法。
我们再次对四个基准套件进行评估,发现flan-u-palm模型优于只有ul2r(u-palm)或只有flan(flan-palm)的palm模型。此外,当与思维链和自洽性相结合时,flan-u-palm在mmlu基准上达到了新的sota,得分达到75.4%。
与只使用ul2r(u-palm)或只使用flan(flan-u-palm)相比,将ul2r和flan(flan-u-palm)结合起来会带来最佳性能:四个评估套件(mmlu、bbh、tydiqa和mgsm)的归一化平均值。
总的来说,ul2r和flan是两种互补的方法,用于改进预训练的语言模型。ul2r使用相同的数据使lm适应denoisers的混合目标,而flan则利用超过1.8k nlp任务的训练数据来教模型遵循指令。
随着语言模型变得更大,像ul2r和flan这样无需大量计算就能提高一般性能的技术,可能会变得越来越有吸引力。
以上就是算力就这么点,如何提升语言模型性能?谷歌想了个新点子的详细内容。
