▲人与技术之间的信任体验,会因技术的不稳定或者差错而带来不信任。新京报制图
ChatGPT 热潮持续,其关注度出现井喷,并吸引了各界的跃跃欲试,似乎一个“美丽新世界”已近在眼前。作为一款聊天机器人,ChatGPT 也以其超强表现,让人相信它似乎无所不能。
但北京时间 2 月 9 日,与 ChatGPT 类似的谷歌聊天机器人 Bard,首秀即因事实性错误而翻车,却又把人类能否信任技术的问题提了出来。
某种程度上可以说,人类社会的进步,正得益于人类对技术的信任。人与技术之间的这种信任,是在人类依据技术为自身带来美好生活的进程中逐渐产生的。在此进程中,人对于技术的信任、不信任、部分信任、错误信任等信任体验都有所呈现,就其本质而言,则是人对自身的信任问题。
伴随技术不断拟人化与人类不断技术化,关于人与技术之间信任关系的探寻,也逐渐成为技术发展趋势与人类未来的一个核心问题。
始于 21 世纪的智能革命,已经将这种信任关系推向了一种新的境遇,而近期的 ChatGPT 以回答问题的方式,为人与技术之间的信任体验提供了一条更为易捷的通道。
ChatGPT 受到的关注,已不仅囿于资本与市场,其应用也不仅是简单的对话。ChatGPT 展示出超强的数据挖掘与整理能力,对用户表现出强大的吸引力,一种全民狂欢般的参与呼之欲出。
这一切也恰恰说明,ChatGPT 后时代,人与技术之间的信任体验将面更广、度更深、量更大。
易言之,或许,我们可以说,ChatGPT 正在以更简洁、更细致的方式进入到人与技术之间的信任体验之中。
说其简洁,是因为从技术接受模型来看,暂且不论其具体效能程度,仅仅就其可感知的易用性,也即其极低的使用门槛,就已经吸引了大量用户。而这恰恰是赢得用户信任的一块敲门砖。
说其细致,是因其正在逐渐形成“舒服、周全而贴心”的问答体验,塑造了技术层级的可信度,且不断强化人类对其信任。与此同时,ChatGPT 也为人类营造了“技术舒适圈”。
从人类对技术的一般共识来看,技术向善是人类的理想,更确切地说是人类对给予技术的厚望。在技术范畴内,ChatGPT 基于用户以往的对话来提升其效能,进而得以更加自然和安全的方式与人类互动。
这种互动,既是人类形成对 ChatGPT 信任的过程,也是 ChatGPT 展示其可信度的过程,更是人类对自身信任的审视。
当然,人与技术之间的信任体验,会因技术的不稳定或者差错而带来不信任。谷歌聊天机器人 Bard 所犯的事实性错误,就为这种信任体验增加了不一样的信任冲击感——为此,谷歌一度损失市值约 1000 亿美元。
“每一项创新在一开始都是冒险。”人类技术发展史,无不印证着英国皇家学会会长、著名天文学家马丁·里斯这一观点。类似谷歌版 ChatGPT 所犯的事实性错误,必然会因为数据池的建设而不断减少。
从目前定位看,ChatGPT 是基于受训数据库而形成答案,已声明有错误的可能性;与此同时,ChatGPT 是提供信息的智能助手,在用户依据其采取行动前,仍需自主研判。
因此,类似 ChatGPT 这种人机对话应用带来的信任冲击,在技术乐观主义者看来是可以被逐渐化解的,同时也提醒,即使是经过训练的答案,信任与否也需要人类自身进行权衡。
更进一步畅想,如果是诸如价值判断等非事实性错误,将会如何?此时的信任体验,又将如何?为此,关于技术的哲学审视,就不仅只有乐观主义,必然还有技术悲观主义、恐惧主义、技术控制主义等。
面对 ChatGPT 的不断发展,若其能够“完美”,其构成的“技术舒适圈”是否会带来极昼式的技术“黑”?这样的技术强光,会将一切信任置于技术框架之内。
反之亦然,一切不信任也将经由技术审视才能确定时,禁不住再次回想到康德的描述:当某人从黑暗房间走进明亮阳光中,会因过强或突然的照耀而短暂变盲。
ChatGPT 横空出世激起的巨浪,或许不得不让人再次感叹,技术之光与人文之光的融合,才是审视人与技术之间信任的适当方式。
撰稿 / 闫宏秀(上海交通大学数字化未来与价值研究中心)
编辑 / 何睿
校对 / 吴兴发
举报 / 反馈
原文链接:https://baijiahao.baidu.com/s?id=1757497494401816701&wfr=spider&for=pc