官网 GPT 4 介绍 :https://openai.com/research/gpt-4
GPT-4 API 申请 :https://openai.com/waitlist/gpt-4-api
GPT- 4 简述
继 GPT3 后 ,OPENAI 又推出了 GPT-4, 它是 OpenAI 最新的深度学习里程碑之一 , 它是一个大型多模态模型 , 能够接受图像和文本输入 , 并产生文本输出。尽管在许多现实世界场景中不如人类 , 但在各种专业和学术基准上表现出人类水平的表现。例如 , 通过模拟律师考试 ,GPT- 4 的分数在应试者的前 10% 左右 , 而 GPT-3.5 的得分在倒数 10% 左右。
2 对比 GPT3 的改进
-
模型规模 :GPT- 4 比 GPT- 3 更大。GPT- 4 使用更多的参数和计算资源来进行训练和推理 , 因此它可以更准确地模拟语言和其他多模态输入 , 并生成更准确的输出。
-
多模态输入 :GPT- 4 是一个大型多模态模型 , 能够接受图像和文本输入 , 并产生文本输出。这是 GPT- 3 所不具备的功能。
-
性能表现 :GPT- 4 在各种专业和学术基准上表现出人类水平的表现。例如 , 通过模拟律师考试 ,GPT- 4 的分数在应试者的前 10% 左右 , 而 GPT-3.5 的得分在倒数 10% 左右。
-
训练稳定性 :GPT- 4 的训练运行前所未有地稳定 , 成为 OpenAI 能够提前准确预测其训练性能的第一个大型模型。这意味着 OpenAI 可以更有效地管理和优化模型训练 , 以提高其性能和可靠性。
-
开放性 :OpenAI 已经开放了 GPT- 4 的 API 和文本输入功能 , 并计划进一步扩展它的能力以实现更广泛的应用。他们还开源了 OpenAI Evals 框架 , 允许任何人报告模型中的缺陷以帮助指导进一步改进
GPT- 4 的特性 :
-
比以往任何时候都更具创造性和协作性。它可以生成、编辑并与用户一起迭代创意和技术写作任务 , 例如创作歌曲、编写剧本或学习用户的写作风格。
-
可以接受图像作为输入并生成说明、分类和分析。
-
能够处理超过 25,000 个单词的文本 , 允许使用长格式内容创建、扩展对话以及文档搜索和分析等用例。
GPT4 API 申请及收费
目前 ,OpenAI 已经对 GPT- 4 的 API 进行了测试 , 并向一些选定的用户提供了 API 和文本输入功能。如果你对 GPT-4 API 感兴趣 , 你可以前往 OpenAI 官网并加入候补名单。OpenAI 表示 , 他们将在未来几个月内向更多用户提供访问权限 , 但具体的时间表和细节尚未公布。在申请之前 , 建议您先了解 API 的费用、使用限制和使用条款等详细信息。
OpenAI 尚未公布 GPT- 4 的详细收费信息。然而 , 根据 OpenAI 在其博客文章中提到的内容 , 他们计划向用户提供 GPT- 4 的 API 和文本输入功能。一般来说 , 类似的 API 服务都会收取一定的费用 , 可能会根据使用量、访问频率等因素进行计费。如果您对使用 GPT-4 API 感兴趣 , 建议您关注 OpenAI 的官方网站和社交媒体渠道 , 以获取最新的收费和使用细节信息。
原文链接:https://www.ngui.cc/article/show-975458.html