目录
@[TOC]
一、GPT4 来了!
今天是 2023 年 3 月 14 日,是非同凡响的一天,是迄今为止最强大的多模态模型 GPT4 发布的一天!据官方介绍,它的输入可以是文字(上限 2.5 万字),还可以是图像。更多详细介绍,请见下文:
OpenAI 老板 Sam Altman 在推特上发文称:
GPT- 4 是迄今为止我们最强大的模型
We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.
二、什么是多模态?
如此火的 GPT- 4 是源于支持多模态,那到底什么是多模态呢?
- 什么是模态? 模态是一种社会性、文化性的资源,是物质媒体经过时间塑造而形成的意义潜势。从社会符号学的角度上对模态的认知可以是声音、文字和图像等。
- 人类通过眼睛、耳朵、触觉等各种感觉器官接触世界,每种信息的来源或形式都可以称之为模态。同时,模态也可以是与人类通过自身的感觉器官从外部得到的信息,比如说嗅觉、视觉、听觉等。随着人工智能领域机器学习、深度学习的不断发展,研究内容的不断增加和更新,逐渐也赋予了模态新的定义,即机器对包含数据表征模式、数据收集模式、数据特征主体这 3 个外部信息的感知模式或信息信道。
- 多模态机器学习研究包含不同模态数据的机器学习问题,一般的模态有视觉、文字和声音。它们通常来自不同的传感器,数据的形成方式和内部结构有很大的不同。例如,图像是存在于自然界中的连续空间,文本是依赖于人类知识、语法规则而组织起来的离散空间,因此多模数据的异质性提出了如何学习多模之间的关联性和互补性的问题。
三、GPT- 4 有多强?更多玩法等你来看:
- 多模态大模型
- 各种专业和学术考试中表现出了与人类水平相当的性能
- GPT- 4 的训练稳定性是史无前例的
- OpenAI 在过去两年里重建了深度学习栈,并与 Azure 共同设计了一台超级计算机以便于应付他们的工作负载
- OpenAI 还开源了 OpenAI Evals,这是他们的自动化评估 AI 模型性能的框架,任何人都可以提交他们模型的缺陷以帮助改进
3.1 更加人性化,更具创意的回答:
GPT- 4 比以往任何时候都更具创造力和协作性。它能够生成、编辑和迭代创意和技术写作任务,并与用户一起进行合作,比如创作歌曲、编写剧本或学习用户的写作风格。
3.2 图像描述生成:
3.3 可视化输入:文字与图片结合输入
拿一张手机插着 VGA 线的图给 GPT4,并问:这张图有什么好笑的,分组描述它。
它给出了令人惊叹的分析与回答。
但令人更加印象深刻的是,只需要一张图表,就可以找到格鲁吉亚和西亚的日均肉类消费量
3.4 更长的上下文支持:
GPT- 4 能够处理超过 25,000 个单词的文本,这使得它可以用于创建长篇内容、进行延续性对话以及文档搜索和分析等用途
3.5 局限性:
尽管 GPT- 4 在功能方面已经非常强大,但它仍然存在与早期 GPT 模型相似的局限性,其中最重要的是它仍然不完全可靠。OpenAI 表示,GPT- 4 仍然会产生幻觉、生成错误答案,并出现推理错误。因此,在使用语言模型时,应该谨慎审查输出内容,并根据特定用例的需求使用适当的协议(例如人工审查、附加上下文或完全避免使用)。总的来说,GPT- 4 相对于以前的模型已经显著减轻了幻觉问题,但仍需要注意其输出的准确性。在 OpenAI 的内部对抗性真实性评估中,GPT- 4 的得分比最新的 GPT-3.5 模型高 40%。这表明 GPT- 4 相对于以前的模型已经取得了显著的进步,但在使用时仍需注意其局限性和缺陷
四、GPT- 4 有多强?基础模型介绍:
GPT- 4 是一种非常强大的预训练语言模型,它可以接受图像和文本输入,以文本输出 1。它可以在很多复杂的 NLP 任务中取得惊人的效果,例如文章生成,代码生成,机器翻译,Q&A 等。它在以下几个方面实现了质的飞越。
GPT- 4 的模型大小是在 1750 亿到 2800 亿参数之间 56,比 GPT- 3 大了 1 到 2 倍,但是小于当前最大的语言模型(5300 亿参数的 MT-NLG 和 5400 亿参数的 PaLM)6。它使用了超级计算机来进行训练,消耗了大量的算力和数据。它采用了自回归(AR)的架构,即根据前面的输入来预测下一个输出。它使用了 Transformer 网络作为基础结构,利用注意力机制来捕捉长距离依赖关系。
GPT- 4 在训练过程中加入了一些新颖的技术和方法,以提高模型的性能和安全性。其中一项是 RLHF(Reinforcement Learning for Human Feedback),即利用人类反馈来对模型进行强化学习。这样可以让模型更好地适应不同的场景和用户需求,同时避免一些不合适或有害的输出。另一项是零样本分类器(Zero-Shot Classifier),即利用模型自身的知识和推理能力来对输入进行分类,而不需要额外的标注数据或训练过程。这样可以让模型更灵活地处理各种类型和主题的输入,同时减少数据偏差和隐私风险 4
在过去的两年里,OpenAI 重建了整个深度学习堆栈,并与 Azure 一起为其工作负载从头开始设计了一台超级计算机。一年前,OpenAI 在训练 GPT-3.5 时第一次尝试运行了该超算系统,之后他们又陆续发现并修复了一些错误,改进了其理论基础。这些改进的结果是 GPT-4 的训练运行获得了前所未有的稳定,以至于 OpenAI 能够提前准确预测 GPT-4 的训练性能,它也是第一个实现这一点的大模型。OpenAI 表示他们将继续专注于可靠的扩展,进一步完善方法,以帮助其实现更强大的提前预测性能和规划未来的能力,这对安全至关重要。
OpenAI 花了 6 个月时间使 GPT- 4 更安全、更具一致性。在内部评估中,与 GPT-3.5 相比,GPT- 4 对不允许内容做出回应的可能性降低 82%,给出事实性回应的可能性高 40%。也就是说,在去年八月份 OpenAI 就已经完成了对 GPT- 4 的模型训练,不得不说,自打 ChatGPT 问世以来,微软和谷歌之间打响的数轮科技战役,微软这次又是真的赢麻了。
五、GPT- 4 有多强?性能测试介绍:
5.1 美国高考 SAT 试题,GPT- 4 在阅读写作中拿下 710 分,数学 700 分
在非正式的谈话中,GPT-3.5 和 GPT- 4 之间的区别可能是微妙的。当任务的复杂性达到足够的阈值时,区别就显现出来了——相比 GPT-3.5,GPT- 4 更加可靠、富有创造力,并且能够处理比较微妙的指令。
为了理解这两个模型之间的区别,我们进行了各种基准测试,包括模拟最初设计给人类的考试。我们使用最近公开的测试(在奥林匹克竞赛和 AP 自由回答问题的情况下)或购买 2022-2023 年版本的模拟考试。我们没有为这些考试进行专门的训练。模型在训练期间看到的问题只占少数,但我们认为结果具有代表性——详见我们的技术报告。
5.2 在其他各种类的模拟考试中,GPT- 4 也表现出不同凡响的成绩
5.3 在机器学习任务测试上,GPT- 4 表现出的性能也远远超过当前现有的大型语言模型,以及大多数最先进 SOTA 模型
不仅如此,OpenAI 为了展示 GPT- 4 在非英语语言上的性能,将 MMLU 测试翻译成不同语言版本,意料之内,GPT- 4 的表现均优于 GPT-3.5
5.4 New Bing 早已在用:
GPT- 4 发布后微软工作人员表示:
如果你在过去六周内的任何时候使用过新的 Bing 预览版(New Bing),你就已经提前了解了 OpenAI 最新模型的强大功能
没错,New Bing 早就在 GPT- 4 上运行,你是否已经被其强大的能力震撼,尽管那只是早期版本。
六、如何使用 GPT-4?
- GPT4 模型 API 已处于内测阶段,通过申请可以获得访问权限
快加入内测申请吧
- chatGPT-Plus 版本用户可以直接预览 GPT4
- 提出模型缺陷,就可以得到访问权限
获得访问权限后,您可以向 gpt-4 模型发出纯文本请求(图像输入仍处于有限的 alpha 阶段),随着时间的推移,我们会在制作新版本时自动将其更新为我们推荐的稳定模型(您可以固定当前版本通过调用 gpt-4-0314,我们将支持到 6 月 14 日)。定价为每 1k 个提示令牌 0.03 美元和每 1k 个完成令牌 0.06 美元。默认速率限制为每分钟 40k 个令牌和每分钟 200 个请求。gpt-4 的上下文长度为 8,192 个标记。我们还提供对我们的 32,768- 上下文(约 50 页文本)版本 gpt-4-32k 的有限访问,该版本也将随着时间的推移自动更新(当前版本 gpt-4-32k-0314,也支持到 6 月 14 日 ). 定价为每 1K 提示令牌 0.06 美元和每 1k 完成令牌 0.12 美元。我们仍在提高长期上下文的模型质量,并希望得到有关它在您的用例中表现如何的反馈。我们正在根据容量以不同的速率处理对 8K 和 32K 引擎的请求,因此您可能会在不同时间获得对它们的访问权限。
本文正在参加 人工智能创作者扶持计划
原文链接:https://juejin.cn/post/7210582842359300156