ChatGPT 引爆全网热议!如果当它是“聊天机器人”,那你可就错了!

113次阅读

2022 年 11 月,人工智能公司 OpenAI 推出了一款聊天机器人:ChatGPT。它能够通过学习和理解人类语言来进行对话,还能与聊天对象进行有逻辑的互动。除了聊天,ChatGPT 还能够根据聊天对象提出的要求,进行文字翻译、文案撰写、代码撰写等工作。

很多人都非常好奇,ChatGPT 作为一个“聊天机器人”,为什么能有如此多的功能?其实,我们一直都理解错了。严格来讲,ChatGPT 并不只是一个“聊天机器人”,而是一个以自然语言为界面的机器人 。这是两码事。

去年 12 月初的时候,当时 ChatGPT 刚刚上线不久,我就曾经就这个问题进行过讨论。现在两个多月过去了,国内已经到了“人人皆谈 GPT”的程度,在海外的技术圈里,这个话题反而已经有点“过劲”了。

不过,基于 ChatGPT 的应用,也已经陆续出现。比如有人就用 ChatGPT 做了一个“会议秘书”程序,可以在视频会议中实时形成会议纪要,最后连任务建议全都一并总结了——也许,过不了多久,各大公司里就会出现看不见摸不着的“神秘小秘”给一线员工分派工作任务的情况吧。

但是你有没有想象过这样一种场景呢——看书的时候,突然有一个精灵浮现在书本上,对你说:“我是这本书里的结构化知识的对话界面。我了解这本书的全部内容。关于这本书,你有什么问题都可以问我。”接下来,你就可以通过深入的沟通(聊天)逐步了解了这本书中所包含的知识。在把这些知识投入实际应用的过程中,你也可以随时通过“聊天”的方式,引入这个“精灵”的帮助。

这当然有可能,因为人们已经习惯于用一种极为昂贵的方法,来提供这样的作为“一种服务”的自然语言界面了:为了给教材一个这样的界面,人们发明了“教师”;为了给财报一个这样的界面,人们发明了“基金经理”;为了给法律文书一个这样的界面,人们发明了“律师”……事实上,几乎所有现代经济中的“专业人士”,或多或少都可以被看做是这样的“一种服务”。他们把结构化的信息转译成了自然语言。这么一来,这些信息就可以被讨论、被诘问、被辩难,然后再被对手方转译回结构化的信息。

现在,以 ChatGPT 为代表的语言模型却宣告说:这件事是可以被机器做到的。不是“无中生有”地创造信息,而是对已有信息的准确的归纳、总结、举例,甚至在不同结构之间切换——这就是为什么前天微软总裁纳德拉(Satya Nadella)说,这是新的工业革命的原因吧——我倾向于同意他。因为“信息流通转译”的服务的价格在一夜之间被彻底改变了——“信息流通转译”服务虽然不是信息本身,却是现代经济的血脉。

不过, 也有许多专业人士不认为大语言模型有智能 。最有代表性的可能是图灵奖得主杨立昆(Yann Lecun)。最近,咆哮着痛斥 ChatGPT 已经成了他近期的“每日功课”。前两天,他还发了一条推特说:“任何一只猫所掌握的常识都比任何今天的大语言模型更多。”有人在评论里弱弱地问:“你家的猫也能写 Python 吗?”他则回复说:“写 Python 算个 ** 智能。”

我不会说猫的任何坏话(当然也不会说 Python 的任何好话),所以,我只能说他说得对。但请注意,这是没什么意义的正确。“半拉子智能”也可以有实际的用处。语言模型并不需要“在本质上了解世界”,只要“装做了解”并且能够侃侃而谈就可以了。毕竟很多网络大 V(以及麦肯锡和德勤的咨询师们)能做的也不过如此。

实际上,在最近两个月里,我看到了很多有趣的语言模型应用。它们不一定是 ChatGPT,有些和它甚至是竞争关系。在这些例子里,你可以明显看到它们是怎样搭建在两种信息结构之间形成桥梁的:有一个应用针对生物医学文献,它可以和你讨论文献内容;有一个应用训练在美国哲学家丹内特(Daniel Dennett)的著作上,可以伪装成这个哲学家本人和你讨论哲学问题;有一个建立在知识引擎 Wolfram Alpha 上的接口,让你可以用自然语言(甚至使用话筒)提出数学问题(注意,它背后是极其专业的 Wolfram Alpha!);有一个应用,只要你输入一个网页,它就可以帮你以 Q&A 卡片形式生成内容摘要;有一个应用,如果你提问,它就可以帮你进行利弊决策分析;有一个应用,你上传不超过 60 页的 PDF 文档,它就可以帮你总结内容……

当你急于指出 ChatGPT 的弱点(太多了)的时候,有必要想到的是:首先,这里有些是 ChatGPT 这个特定产品的问题而未必是大语言模型的问题(比如很多人不喜欢 ChatGPT 不给出参考文献,但它的一个竞品就会给);其次,也是更重要的是,这个领域在接下来的几个月和几年里会因为大量资金的投入突飞猛进。毕竟,AlphaGo 刚推出的时候也有人嘲笑说它连欧洲围棋冠军都下不赢,但重点在于“它竟然有资格跟欧洲围棋冠军下棋了”。

同样的,当你抱怨 ChatGPT 鬼话连篇满嘴跑火车的时候,这可能有点像你看到一只猴子在沙滩上用石头写下 1 +1=3。它确实算错了,但这不是重点。

原文链接:https://baijiahao.baidu.com/s?id=1757697700048327687&wfr=spider&for=pc

正文完
 
不知道
版权声明:本站原创文章,由 不知道 2023-08-14发表,共计2063字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布,如无来源则为原创,转载请注明出处。