本文来源:时代周报 作者:刘沐轩
没有用过 ChatGPT 的人可能要抓紧时间了,它的进化速度远远超乎人们的想象。
抛开其复杂的内核,许多人都把 ChatGPT 当成一个有问必答的 AI 系统,有时让人惊叹于它渊博的知识、清晰的语言逻辑,有时也不禁使人调侃其“不懂装懂”地给出离谱的答案。
这款由 OpenAI 公司开发的 AI 系统——ChatGPT,已经有超过 1 亿的日活用户。
但这显然只是这个 AI 系统的一个起步。3 月 15 日,OpenAI 发布了全新升级的版本,名为 GPT-4。相比于只能接收文字提问的老版本,最新的 GPT- 4 可以识别图片的意思,10 秒钟做出一个简单的网站,甚至能回答出“这个表情包为什么好笑”的刁钻问题。
GPT- 4 煞有介事地解释为什么梗图好笑。(图源:OpenAI)
不仅如此,科学家们现在让 GPT- 4 去考试,发现它在美国律师资格考试中的成绩超过 90% 的人类考生,在语言考试 GRE、“美国高考”SAT 中拿到近乎满分,在生物奥林匹克竞赛中超过 99% 的人类考生。
总体而言,目前这个基于对话训练的 GPT-4,在语言方面出类拔萃,但其数学水平似乎有待提高。
ChatGPT 还没玩明白,GPT- 4 怎么就要来了?AI 发展的速度令人惊叹甚至惊恐,我们是不是要失业了?而在 AI 引发的一些列疑问中,失业可能恰恰是最不急迫的那一个。
为什么不必担心失业?
在围棋中战胜人类,在考试中取得满分等等,还只是让人把 AI 当作新鲜事来看待。然而当 AI 在简单编程、旅游规划、保费评估和诊断病情等具体场景下出色地完成任务时,做着同样工作的人慌了。
AI 不需要吃饭睡觉、没有精神压力,也无需劳动保障。按照内卷的逻辑,打工人岂不是要被这个 AI“卷”走了?
这一切似曾相识,却也有些不同。
工业革命后,机器给社会生产方式带来了深刻的变革,大量人员下岗。但直到今天,也没有几个工厂能用得上比肩特斯拉超级工厂的生产方式。
一方面,机器取代了简单的重复劳动,另一方面,有能力取代精密劳动的机器,成本极其高昂。
而不变的是,真正纯粹的体力劳动和人工服务,将越来越贵。
工业革命中的机器极大地提高了生产效率,也导致了大量失业。(图源:社交媒体)
面对 AI 是否会引发大规模失业的问题,答案是否定的。因为没人想让 AI 替代自己,打工人不想,老板和各国政府估计也不敢。
假设一家企业的老板执意要把员工都替换成 AI,那么老板是否懂得如何管理 AI?该从哪里购买统筹 AI 的服务?
他最终仍然需要雇佣有能力使用 AI 辅助工作的员工。例如,科技巨头企业微软近期就设立了新职位——指令工程师(Prompt Engineer),专门负责与 AI 沟通。
即便是企业学会了活用 AI,提高效率后进行裁员,也没有国家敢接受大规模失业引发的政治风险。因为选票仍然在人们手中,若是发生大规模失业的情况,福利政策和救济政策需要随时跟进,这对各国政府来说都是不小的压力。
更何况,AI 的能力超出了人们想象,目前大多数国家、组织、个人对 AI 的态度都是谨慎、谨慎、再谨慎。
实际上,在 ChatGPT 出现前,每个人都已经主动或被动地拥抱 AI 十几年了。
目前看来,用于消费领域的 AI 似乎不会造成直接的人员下岗,抖音、淘宝、美团、滴滴等这些互联网平台早已经在用 AI 为用户提供服务。推荐人们感兴趣的视频或商品、安排外卖骑手接单、规划路线等等,这些决策几乎都有 AI 的参与,甚至全部被 AI 接管。
近十几年来,AI 就是这样悄无声息地接管了大量的工作,却没有引发大规模的失业。
类似问题其实早已有了案例。例如,让人类迈入信息时代的计算机和互联网,在刚出现的时候也足够颠覆,然而今天,没人会把自己的问题归咎于电脑生产企业或互联网本身。
此前,网络上一种流行的说法也从侧面展示出 AI 的局限性:“AI 不能坐牢,所以不能替代会计”。
正因为 AI 不能负起相关责任,所以目前看来无法取代人。同理,AI 法官和 AI 医生的判断有可能被广泛接受吗?不然未来所有的纠纷难道都要归咎于 OpenAI、谷歌、微软这些企业吗?
面对这样的社会变革趋势,有的人会觉得“礼崩乐坏”,但又不可能完全与 AI 割席,陷入没有尽头的精神内耗。而有想法的人则开始学习掌握训练 AI 的能力,直到平台推送的都是他想要的内容,俗称“养号”。
在平台上随便一搜,就有驯化 AI 的养号攻略。(图源:社交媒体截图)
可预见的未来是,AI 想要在工作岗位上替代真人,将依旧是一个隐性的、谨慎的过程,能够活用 AI 的打工人将具备更强的竞争力和议价能力。
对此,微软德国执行长 Marianne Janik 也曾表示,新的 AI 技术已经带来新的变革,大多数人不需要换工作,而是要在此关键时刻学习 AI 让自己成为专家,为企业的产品与服务增加价值。
他对企业家的建议则是,要开始训练员工使用 AI,这样才能顺利过渡到下一个世代。
颠覆认知的潜力与威胁
AI 与人的不同之处,恰恰是它的魅力,也需要我们警惕。
通过摄入大量的信息,科学家们发现,AI 越来越像一个总是能蒙对答案,但写不出解题步骤的学生。
2020 年,麻省理工学院用 AI 发现了一种新的广谱抗生素 Halicin,它能杀死许多具备耐药性的“超级细菌”,却不会让细菌产生耐药性。
科学家们先是教 AI 了解抗生素分子的普遍规律,然后放手让 AI 自行模拟了 61000 个分子,最终找到了 Halicin。
由 AI 找到的抗生素 Hailicin。(图源:社交媒体)
但整个事件给人带来的震撼不是 AI 找得有多快多准,而是 AI 学生用科学家老师们至今都无法理解的解题方法,得出了 Halicin 这个正确结果。
这并非特例,早在 AlphaGo 大战世界围棋冠军李世石时,人们就发现 AI 经常会走出一些人类棋手匪夷所思的走法。
现在,许多行业的前沿从业者和研究者都在使用 AI,但绝大多数人并不知道 AI 为何如此抉择。如果不及时反思或学习 AI 的方法论,这将是一件恐怖的事情。
不知道其方法论,那 AI 所做的一切真的正确吗?如果 AI 能够轻易完成科研成果、股票交易这些人类社会较高难度的任务,那么追求真理、牺牲精神、人心博弈等这些最具人性的行为又有何意义?
目前仅限于解决特定问题的 AI 也许还没什么威胁,但等到 AI 发展到了广泛处理各种事务,接管每个人的方方面面时,情况可能会变得让人哭笑不得。
AI 会综合人们知道的、不知道的所有信息,为人们提供决策或建议,而人们可能根本没有核实其对错的能力。在一些小事上,会直接替人作出决策,就像 AI 现在推送个性化内容一样。
最终,对绝大多数人而言,AI 什么都知道,什么都做得比人好。这样的良师益友,为何不尽情地依赖它?又或者会有人将其人格化,甚至将 AI 奉若“上帝”。
届时硅谷会否成为一个“新梵蒂冈”?(图源:社交媒体)
那些早就开发出 AI,并供给资源调控其进化速度和方向的公司,也可能会被改名为“教会”。
届时,今天那些沉溺于商品、短视频推送算法,放弃思考、拒绝接受新观点的人,可能最先成为“教徒”。人类社会或许也会面临一轮新的启蒙运动,重新拥抱理性。
这也正是基辛格、谷歌前 CEO 施密特和麻省理工学院计算机学院的院长胡滕洛赫尔在《AI 时代:以及人类的未来》一书中强调的,“任何情况下,真正的决策权应该掌握在人的手里。”
掌握并驾驭 AI
所幸,AI 领域的先行者们,正在带头警惕 AI 取代人。
2 月 24 日,开发 ChatGPT 的 OpenAI 发布了一则声明,表态该公司正在谨慎地给 AI 发放学习资料,比如此前人们用的 ChatGPT 是基于 GPT-3.5 这个版本的应用,只收录了截至 2021 年底的信息。
OpenAI 还在声明中表示,“我们希望就三个关键问题进行全球对话:如何管理这些系统,如何公平分配它们产生的利益,以及如何公平分享使用权。”
GPT- 3 和 GPT- 4 的区别是,后者不仅可以接收文字信息,还可以学习多媒体素材。(图源:社交媒体)
目前,决定 AI 发展的三大因素是算力、算法和数据(教材),这些都需要人的参与。
算力是物质基础,而这就牵扯到芯片。
GPT 对芯片的需求是极大的,且需求量呈指数级增长。GPT- 4 上一代的 GPT-3.5,训练所需的芯片是英伟达的 A100 型号 GPU(图形处理器,俗称显卡),一颗大概要 8 万元。
而完成整个训练过程,大概需要 30000 颗 A100 芯片,也就是 2.4 亿元。
要知道,训练当年战胜李世石的 AlphaGO,也只用了 176 颗芯片。GPT- 4 的整个训练过程需要要多少芯片,现在还未可知。
与此同时,训练 AI 还特别耗电,ChatGPT 据说训练一次,就要消耗 90 多万度电,相当于 1200 个中国人一年的生活用电量。目前,仅仅是维持日常运转,每天的电费大概就要 5 万美元。
此外,训练 AI 的素材目前仍然需要人工筛选。AI 该学什么,判断是否正确,这些都需要一种名为数据标注师的工种。美国《时代周刊》在今年 1 月曾报道过,截止到 2022 年,全球已经有 500 万名数据标注师。其中,许多人来自非洲国家,比如肯尼亚。
在算法上,目前的 AI 比前代更像人,也因此取得了更迅猛的进展。
以往的设计,是“人教给 AI 语法和词汇,然后让 AI 讲话”。但语言模型本身就是模糊的,很多概念在人类社会中都没有所谓“正确”的定义。
比如,什么是猫?每个人都可以轻易地判断出猫的照片,但却没人能简单地总结出判断规则。有毛?尖耳朵?大眼睛?人类老师都不一定能解释清楚,如何教给 AI 学生?
科学家最终发现,直接把 100 万张猫的照片丢给 AI,AI 就学会了判断“什么是猫”。因此,现在的算法是把“日常对话”直接丢给 AI,让 AI 自己感受出一种“语感”。
试想如何教会小孩子“什么是猫”。(图源:社交媒体)
有时,AI 的办法让人琢磨不透,有时甚至能启发人。
当前一个亟待解决的问题是,如何保障 AI 训练数据的准确性?除了事实本身之外,编程语言都是经由英语输入,AI 只能“看懂英文教材”。这就意味着,如果要训练 ChatGPT 回答中文问题,也无法保证不在翻译上出现纰漏。
但抛开这些研发者的苦恼,对个人而言,ChatGPT 或许将成为最好的学习工具,颠覆每个人接受教育的方式。
有问必答的 ChatGPT 可以从头教你如何向它提问,这是一种对话式的学习。从孔子和苏格拉底的时代开始,这种形式似乎就是“学习”最本真的样子。而且在吸收了大量的知识后,ChatGPT 甚至可以扮演孔子和苏格拉底,直接与人们对话。
ChatGPT 也许不能完美扮演孔子,但起码是个精通孔子思想的学霸。(图源:网络截图)
加州大学河滨分校 2023 年刚刚发布了一项研究,他们把《意识的解释》的作者、美国认知科学家丹尼特的所有的书和文章都输入给 ChatGPT。研究者们让 ChatGPT 扮演丹尼特,回答受试者的问题,并将丹尼特自己的回答也混入其中,让受试者判断。
结果,25 个熟悉丹内特领域的哲学家平均正确率为 51%,经常阅读丹内特哲学博客的粉丝得分也差不多。也就是说,ChatGPT 扮演的丹尼特已经到了真假难辨的程度。
现在,想阅读一本书,ChatGPT 不仅可以为人们推荐、做摘要,甚至能在一定程度上替代作者本人答疑解惑。
但作者本人并不会失去价值,他的新思想恰恰是 ChatGPT 学习的食粮,ChatGPT 也将成为敦促他思考的动力。
就像机械普及后,人工服务的价值反而越来越高。AI 普及后,人的价值或许也将愈发凸显。
举报 / 反馈
原文链接:https://baijiahao.baidu.com/s?id=1760716423870170954&wfr=spider&for=pc