ChatGPT爆火,我们是否可以信任聊天机器人?

117次阅读
ChatGPT 爆火,我们是否可以信任聊天机器人?

chatGPT 生成的程序小狗。近日,一款名为 ChatGPT 的聊天机器人火遍全球,该机器人的研发公司 OpenAI 表示,ChatGPT 上线短短 5 天用户数量已突破 100 万。在网友们晒出的截图中,ChatGPT 不仅能流畅地与人对话,还能写代码、找 Bug、做海报、写年报……甚至还以鲁迅的文风进行天马行空的创作,几乎无所不能。ChatGPT 并非市面上唯一一款对话型人工智能系统。早在去年的 I / O 开发者大会上,谷歌就演示了专门为对话而建立的 LaMDA 系统。今年春天,一名谷歌工程师甚至表示 LaMDA 有自己的“意识”。虽然这一说法遭到了许多人的强烈批评,但却实实在在地抓住了公众的想象力。

对话型 AI 有何玄机?

ChatGPT 是人工智能研究实验室 OpenAI 在 11 月 30 日发布的全新聊天机器人。在 OpenAI 的官网上,ChatGPT 被描述为优化对话的语言模型,是 InstructGPT 的姐妹模型。这个模型以对话的形式进行互动,使得 ChatGPT 能够回答后续问题、承认错误、发出质疑并拒绝不适当的请求。

据澎湃新闻此前报道,ChatGPT 采用了和 InstructGPT 一样的人类反馈中强化学习(RLHF,Reinforcement Learning from Human Feedback)技术,通过将抹去个人信息的人工注释添加到训练集之前,利用这些数据来进行模型的微调,达到了提高帮助性和真实性,同时减轻语言模型的危害和偏见的效果。

LaMDA 则是谷歌公司在去年 5 月推出的一款突破性对话应用语言模型技术(The Language Model of Dialogue Applications),谷歌称其可以参与流动性的自由对话。据《纽约时报》12 月 12 日报道,LaMDA 即人工智能研究人员所称的神经网络,是一个松散地、仿照大脑中神经元网络的数学系统。这一技术在谷歌翻译、自动驾驶等服务中也有使用。

这样一个神经网络会通过分析数据来学习技能,例如,通过在数以千计的猫咪照片中找出固定模式,从而学会识别一只猫。

5 年前,谷歌和 OpenAI 等实验室的研究人员开始设计神经网络,分析海量的数字文本,包括书籍、维基百科、新闻报道和在线聊天记录,科学家们将它们称为“大型语言模型”。该技术可以自动生成文本,并结合不同的概念、模仿人们写的东西。

通过 ChatGPT,OpenAI 已经努力完善了这项技术。ChatGPT 不像 LaMDA 那样能够进行自由对话,它被设计得更像是 Siri、Alexa 这类的数字助手。不过与 LaMDA 一样,ChatGPT 是在从互联网上摘取的数字文本的海洋中训练而成的。

聊天机器人并不总说实话

经过海量信息的训练,ChatGPT 这类的聊天机器人能够很轻易地提供想法、回答问题,但是它们并不总是说实话。它们提供的答案有时真假参半,这导致人们开始担忧,随着技术的成熟,这类机器人可能会被利用来传播假消息和谣言。

一位来自美国弗吉尼亚州的数据科学家亚伦·马格利斯(Aaron Margolis)告诉《纽约时报》,虽然他时常惊异于 LaMDA 的开放式对话天赋,但它有时候会“胡编乱造”,因为这是一个被互联网信息训练出来的系统。

当马格利斯要求 LaMDA 像马克·吐温那样与自己聊天时,LaMDA 很快描述了吐温与李维斯·施特劳斯(Levis Strauss)之间的会面,并说马克·吐温在 19 世纪中期居住在旧金山时曾为李维斯这位牛仔裤大亨工作。这看起来像是真的,但事实是,尽管马克·吐温和李维斯同时居住在旧金山,但他们从未一起工作过。

科学家将这种现象称为“幻觉”——聊天机器人就像一个很会讲故事的人,它们有办法把它们学到的东西重塑成新的东西,但不考虑这些是否真实。

据澎湃新闻此前报道,ChatGPT 在释出不久后就遭到了 Stack Overflow(一个程序设计领域的问答网站)的抵制。Stack Overflow 暂时禁止用户分享 ChatGPT 生成的回复,因为 ChatGPT 很容易与用户互动,能够快速生成大量答案,这让网站充斥着许多看似可信但不正确的信息。

OpenAI 公司也清楚 ChatGPT 并不完美。该公司警告称,ChatGPT 偶尔可能会“提供不正确的信息”,“产生有害的指令或有偏见的内容”,但 OpenAI 称计划继续完善该技术,并提醒用户“这还只是一个研究项目”。

人工智能将去向何方?

谷歌、Meta 等众多科技公司正在着手解决人工智能的准确性问题。Meta 公司最近下线了其聊天机器人 Galactica 的在线预览功能,因为它反复产生不正确和带有偏见的信息。

但仍有专家警告称,科技公司无法掌控这些技术的命运,像 ChatGPT、LaMDA 和 Galactica 这样的系统是基于多年来自由流传的想法、研究论文和计算机代码。《纽约时报》11 日评论称,像谷歌和 OpenAI 这样的公司可以以比别人更快的速度推动技术的发展,但是他们最新的技术已经被复制和广泛传播,他们无法阻止人们利用这些系统来传播错误信息。

ChatGPT 上线后,特斯拉 CEO 埃隆·马斯克在社交平台上表示:“我们离强大到危险的 AI(人工智能)不远了”。作为 OpenAI 公司的创始人之一,马斯克显然无限看好这类新技术的发展,但是他也不否认,强大的新技术往往伴随着危险。

人工智能未来将发展到何种程度尚未可知,但可以确定的是,人工智能的监管与控制问题近在眼前。

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

举报 / 反馈

原文链接:https://baijiahao.baidu.com/s?id=1752105622345946417&wfr=spider&for=pc

正文完
 
不知道
版权声明:本站原创文章,由 不知道 2023-08-15发表,共计2274字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布,如无来源则为原创,转载请注明出处。