GPT-4 技术报告.pdf-百度云盘下载

GPT-4 技术报告.pdf-百度云盘下载

 

摘要
我们报告了GPT-4的开发,这是一个大规模的多模态模型,可以接受图像和文本输入并产生文本输出。虽然在许多现实世界的场景中不如人类,但GPT-4在各种专业和学术基准上表现出人类水平的表现,包括以大约前10%的分数通过模拟律师考试。GPT-4是一个基于Transformer model的模型,经过预训练,可以预测文档中的下一个令牌。培训后的调整过程提高了真实性和对期望行为的遵守程度。这个项目的一个核心组成部分是开发基础设施和优化方法,这些方法在广泛的规模范围内表现得可预测。这使我们能够根据不超过GPT 4计算量1/1000的模型准确预测GPT 4性能的某些方面。
1 导言
本技术报告介绍了GPT-4,这是一个大型多模态模型,能够处理图像和文本输入并产生文本输出。这种模型是一个重要的研究领域,因为它们具有广泛应用的潜力,如对话系统、文本摘要和机器翻译。因此,近年来,它们一直是人们极大兴趣和进步的主题【1-28】。开发这种模型的主要目标之一是提高它们理解和生成自然语言文本的能力,特别是在更复杂和微妙的场景中。为了测试它在这种情况下的能力,GPT-4在最初为人类设计的各种考试中进行了评估。在这些评估中,它表现得相当好,通常得分超过绝大多数人类考生。例如,在一次模拟律师考试中,GPT-4的分数在考生中排名前10%。这与GPT的3.5分形成鲜明对比,后者排名倒数10%。在一套传统的NLP基准测试中,GPT-4优于以前的大型语言模型和大多数最先进的系统(通常有特定于基准测试的训练或手工工程)。在MMLU基准【29,30】上,一套涵盖57个科目的英语多项选择题,GPT-4不仅在英语方面远远超过现有模型,而且在其他语言方面也表现强劲。在MMLU的翻译版本上,GPT-4在26种语言中的24种超过了英语的最先进水平。我们将在后面的章节中更详细地讨论这些模型功能结果,以及模型安全性改进和结果。
该报告还讨论了该项目的一个关键挑战,即开发深度学习基础设施和优化方法,这些方法在广泛的规模上表现可预测。这使我们能够预测GPT-4的预期性能(基于以类似方式训练的小跑步),并在最后一次跑步中进行测试,以增加我们训练的信心。
尽管GPT-4有其功能,但它与早期的GPT模型有类似的局限性[1,31,32]:它不完全可靠(例如,可能出现“幻觉”),具有有限的上下文窗口,并且不学习
*请将此作品引用为“OpenAI(2023)”。完整的作者贡献声明出现在文件的末尾。
2
凭经验。使用GPT-4的输出时应小心,尤其是在可靠性很重要的情况下。
GPT-4的能力和局限性带来了重大和新颖的安全挑战,鉴于潜在的社会影响,我们相信仔细研究这些挑战是一个重要的研究领域。该报告包括一个广泛的系统卡(在附录之后),描述了我们预见的偏见、虚假信息、过度依赖、隐私、网络安全、扩散等方面的一些风险。它还描述了我们为减轻GPT-4部署的潜在危害而采取的干预措施,包括与领域专家的对抗性测试,以及模型辅助的安全管道。
2 本技术报告的范围和限制
本报告重点介绍GPT-4的能力、局限性和安全特性。GPT-4是一种Transformer model风格的模型【33】,使用公开可用的数据(如互联网数据)和第三方提供商许可的数据,预先训练以预测文档中的下一个令牌。然后使用来自人类反馈的强化学习(RLHF)对该模型进行微调【34】。鉴于竞争格局和GPT-4等大规模模型的安全影响,本报告不包含有关架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法或类似内容的更多细节。我们致力于对我们的技术进行独立审计,并在本版本随附的系统卡中分享了该领域的一些初步步骤和想法。2我们计划向更多第三方提供进一步的技术细节,这些第三方可以建议我们如何权衡上述竞争和安全因素与进一步透明的科学价值。
3 可预测的缩放
GPT-4项目的一大重点是建立一个可预测扩展的深度学习堆栈。主要原因是,对于像GPT-4这样的非常大的训练运行,进行广泛的特定于模型的调整是不可行的。为了解决这个问题,我们开发了基础设施和优化方法,这些方法在多个规模上具有非常可预测的行为。这些改进使我们能够可靠地预测GPT-4性能的某些方面,这些性能来自使用1,000 ×-10,000 ×较少计算训练的较小模型。
3.1 损耗预测
经过适当训练的大型语言模型的最终损失被认为很好地近似于用于训练模型的计算量的幂律【35,36,2,14,15】。
为了验证我们的优化基础设施的可扩展性,我们通过拟合具有不可约损失项的标度律(如Henighan
等人【15】)来预测GPT-4在我们内部代码库(不是训练集的一部分)上的最终损失:L(C)=aCb+C,来自使用相同方法训练的模型,但使用的计算量最多比GPT-4少10,000倍。这一预测是在运行开始后不久做出的,没有使用任何部分结果。拟合的标度律高精度地预测了GPT 4号的最终损耗(图1)。
3.2 HumanEval上能力的扩展
在训练前对模型的能力有所了解可以改进围绕一致性、安全性和部署的决策。除了预测最终损失,我们还开发了一种方法来预测更可解释的能力指标。一个这样的指标是HumanEval数据集【37】的通过率,它衡量综合不同复杂性的Python函数的能力。我们成功地预测了HumanEval数据集子集的通过率,方法是从最多减少1000倍计算的模型中进行外推(图2)。
对于HumanEval中的单个问题,性能偶尔会随着规模的扩大而恶化。尽管存在这些挑战,我们还是
3
找到了一个近似的幂律关系-EP[log(pass_rate(C))]=α∑C−k

资源下载
下载价格6 资源币
0

评论0

请先
显示验证码
没有账号?注册  忘记密码?