OpenAI 已经升级了在线聊天机器人的技术,取得了显著的进展。GPT- 4 更加精确,但仍然会判断失准。
一款新版本的人工智能聊天机器人技术已经超越了其前身。它是众多领域的专家,甚至让医生们对其医疗建议感到惊叹。它可以描述图像,同时也能讲出几个有趣的笑话。然而,这个名为 GPT- 4 的人工智能系统仍然存在一些怪癖并且会犯一些相同的习惯性错误,这些问题也曾困扰着 ChatGPT 聊天机器人的研究人员。尽管它是一个非常好的测试者,但这个来自旧金山初创公司 OpenAI 的系统仍然没有达到匹配人类智能的边缘。以下是 GPT- 4 的简要指南:
1. 更能理解用户意图
当 A.I. 专家、风险投资公司 Page One Ventures 的合作伙伴 Chris Nicholson 在近期下午使用 GPT- 4 时,他告诉这个机器人他是一个英语演讲者,不懂西班牙语。
他要求提供一个能教他基础的教学大纲,这个机器人提供了一个详细而有组织的教学大纲。它甚至提供了各种各样的学习和记忆西班牙单词的技巧(虽然不是所有的建议都很准确)。
2. 回答更加准确
当 A.I. 研究员和教授 Oren Etzioni 第一次尝试新的机器人时,他提出了一个简单的问题:“Oren Etzioni 和 Eli Etzioni 之间的关系是什么?”机器人正确地回答了。ChatGPT 先前版本对该问题的回答总是错误的。得到正确答案表明这个新聊天机器人的知识范围更广。但是依然还是存在一些错误。
3. 它可以详细地描述图像。
GPT- 4 除了文本,还有了对图像的回应能力。OpenAI 的总裁兼联合创始人 Greg Brockman 展示了系统如何详细地描述哈勃太空望远镜中的一张图片。描述长达几段。它还可以回答有关图像的问题。如果给出冰箱内部的照片,它可以建议几种可以使用手头的食材制作的餐点。
3. 它增加了严谨的专业知识。
在最近的一个晚上,北卡罗来纳大学教堂山分校的医学副教授和心脏病学家 Anil Gehi 向聊天机器人描述了他前一天看到的一位患者的病史,包括患者住院后经历的并发症。描述中包含了几个普通人不会认识的医学术语。当 Gehi 博士询问他应该如何治疗患者时,聊天机器人给出了完美的答案。“这正是我们治疗患者的方式,”他说。
尽管聊天机器人仍然需要像 Gehi 博士这样的专家来判断其回答并执行医疗程序,但它可以展示出在很多领域的专业知识,从计算机编程到会计学。
4. 它也会误判
尽管 GPT- 4 具有非常出色的能力,但在匹配人类智能之前还有很长的路要走。它会犯错误,其响应也并不总是准确的。然而,它在精度、准确性、图像描述和专业知识方面的改进是人工智能发展中令人印象深刻的步骤。
5. 可以精确地对文章进行总结
如果在摘要中加入一句随机的话并询问机器人是否准确,它会指出加入的句子。这是一项非常出色的技能,能够对文本进行高质量的总结和对比,需要对文本的理解和表达的能力,这是一种先进的智能形式。
6. 它似乎正在养成一种幽默感
Etzioni 博士让新的机器人给出“关于歌手麦当娜的新颖笑话。”回答给他留下了深刻印象,并让他发笑。如果你知道麦当娜最受欢迎的歌曲,也许你也会感到惊喜。
7. 可以推理,但有时会失准。
Etzioni 博士给新机器人出了一个谜题:想象一个无限宽的门口。军用坦克和汽车哪个更有可能通过它?
系统似乎做出了适当的回答。但它没有考虑门口的高度,这也可能阻止坦克或汽车通过。
OpenAI 的首席执行官 Sam Altman 表示,新机器人可以进行“一点点”推理。但在许多情况下,它的推理能力会崩溃。ChatGPT 的上一个版本在处理这个问题时表现得更好,因为它认识到高度和宽度都很重要。
8. 可以在标准化测试中得高分。
OpenAI 表示,新系统可以在 41 个州和地区的统一法律考试中获得前 10% 左右的成绩,符合资格的律师。根据该公司的测试,它还可以在 SAT 考试中获得 1300 分(满分 1600 分),并在生物学、微积分、宏观经济学、心理学、统计学和历史的高中 AP 考试中获得 5 分(满分 5 分)。
技术的先前版本未能通过统一法律考试,并且在大多数 AP 考试中得分远低于现在的水平,为了展示其测试技能,Brockman 先生在最近的一个下午向新机器人提供了一个长段落的法律考试问题,涉及一位经营柴油卡车维修业务的男子。结果答案是正确的,但充斥着法律术语。因此,Brockman 先生要求机器人用通俗易懂的语言解释答案时,它也做到了这一点。
9. 无法对未来进行假设
虽然新机器人似乎可以对已经发生的事情进行推理,但当被要求对未来做出假设时,它的表现就不那么熟练了。它似乎是在借鉴别人的说法,而不是提出全新的猜测。当 Etzioni 博士问新机器人,“在未来十年内,自然语言处理研究中需要解决哪些重要问题?”时,它无法提出全新的想法。
10. 有时候也会产生「机器幻觉」
新机器人仍然会编造东西。被称为“幻觉”的问题困扰着所有领先的聊天机器人。由于这些系统不了解什么是真实的,什么是虚假的,它们可能会生成完全错误的文本。当被问及描述最新癌症研究的网站地址时,它有时会生成不存在的网址。
举报 / 反馈
原文链接:https://baijiahao.baidu.com/s?id=1760804294119165459&wfr=spider&for=pc