GPT-4 介绍

135次阅读

本文根据 openAI 的 2023 年 3 月的《GPT-4 Technical Report》翻译总结的。

原文地址:https://arxiv.org/pdf/2303.08774.pdf

原文确实没有 GPT-4 具体的模型结构,openAI 向盈利组织、非公开方向发展了。也没透露硬件、训练成本、训练数据、训练方法等。不过也透露了一些思想,比如提出了根据模型小的时候,预测模型大的时候的表现。

GPT- 4 开始多模态了,支持图片和文本输入,输出文本。GPT- 4 模型还是沿用 AR 模型的思路,transformer 模型,在一个文档中预测下一个 token。GPT- 4 除了预训练,增加了强化学习微调,即使用了 Reinforcement Learning from Human Feedback (RLHF)。

GPT- 4 在一些考试如司法考试上取得了 top 10% 的成绩。而 GPT-3.5 的成绩在底部 10%。

2 预测扩展性

GPT- 4 是非常大的训练成本,它不能灵活进行特定任务的微调。为此,我们开发了一个基础结构和优化的方法,可以根据模型小的时候,预测模型大的时候的表现。比如使用千分之一到万分之一的 GPT- 4 计算成本就可以预测 GPT- 4 的效果。

loss 预测可扩展性

提出了下面公式,可以通过小模型预测 GPT- 4 的 loss。

设 GPT- 4 计算成本为 1,x 轴前面的就是小模型,y 轴是损失 loss。随着模型增大到 GPT-4,损失 loss 可以通过小模型进行预测。

HumanEval 验证数据集上能力的预测扩展性

可以通过小模型预测 GPT- 4 的能力。

其中 k 和 a 是正常数,P 是验证数据集的一个问题集合子集。

设 GPT- 4 计算成本为 1,x 轴前面的就是小模型。随着模型增大到 GPT-4,大模型能力可以通过小模型进行预测。

3 GPT- 4 能力

GPT- 4 比 GPT-3.5 更好的通过各种学术和专业考试。

GPT- 4 在考试方面的能力不是太依靠强化学习 RLHF,在多项选择题上,GPT- 4 和 RLHF 模型的表现差不多相等。

4 视觉输入

GPT- 4 支持图片和文本的任意排列的输入。

问 GPT- 4 图片中有什么有趣的事情?分别逐张描述。GPT- 4 准确的描述出:图片将过时的 VGA 连接头插入现代手机进行充电。

5 模型缺点

GPT- 4 和以前 GPT 版本有类似的限制,最重要的是它不是完全可以信赖的。

GPT- 4 的训练数据是截至 2021 年 9 月的,所以没有最新的新闻事件。有时它也会犯错,或者被用户欺骗。它也不能处理很难的问题(人类可以处理)。

GPT- 4 有时可能对自己的输出过于自信。

6 缓解风险

a) 利用专家知识对抗测试(Adversarial Testing via Domain Experts)

b) 搭建模型安全助手(Model-Assisted Safety Pipeline):包括两个主要成员,一个是利用额外的进行安全相关的 RLHF 训练提示数据集,一个基于规则的奖励模型(RBRMs)。

rule-based reward models (RBRMs) 是一个 zero-shot 的 GPT- 4 分类器。这个分类器在 GPT- 4 进行 RLHF 微调时提高一个额外的奖励信号,使得 GPT- 4 倾向于正确的行为,拒绝生成有害的内容,或者不要拒绝无害的请求。

c)Improvements on Safety Metrics: 在 RealToxicityPrompts 数据集上,GPT- 4 仅有 0.73% 的时间产生有毒的内容,而 GPT-3.5 是 6.48% 时间产生有毒内容。

原文链接:https://www.bilibili.com/read/cv23424355/

正文完
 
不知道
版权声明:本站原创文章,由 不知道 2023-08-04发表,共计1450字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布,如无来源则为原创,转载请注明出处。