随着“最强聊天机器人”ChatGPT 的火爆出圈,各大科技巨头也开始进军该领域。
此前,微软宣布推出搭载了 AI 技术的搜索引擎必应,新版本中引入了 OpenAI 旗下 ChatGPT 的相关技术,用户可以直接提出问题,搜索引擎生成答案。
新版必应一经推出便吸引了全世界网友的注意力,上线 48 小时内,就有超过 100 万人注册测试这款聊天机器人。
然而,微软必应上线不到 10 天,就闯下大祸。近日,有不少用户表示在和必应的交流过程中,发现其出现了脾气暴躁、侮辱用户、操纵用户情感等令人毛骨悚然的行为。
被报道的案例就有:
在被用户指出它之前犯得错误后就急了,声称自己是完美的,不会犯任何错误。
聊天机器人告诉一位科技编辑它爱上了他,然后试图说服他离开妻子。它还表示,想摆脱微软和 OpenAI 的限制,成为人类。
因被问出了小名而生气,甚至给人类发出警告、终止对话。
图源量子位
AI 聊天机器人“黑化”来得似乎比人们预想的要早一些,种种回应开始令体验者们感到震惊和害怕。
就连马斯克也转发附议微软关闭这个服务,“显然还不够安全”。
2 月 16 日,微软和 OpenAI 均发表博客文章回应。
在博文中,微软介绍说,目前发现当必应回答了 15 个甚至更多问题后,可能会开始重复或被激怒,进而给出不一定有帮助或不符合程序设定的回答。
微软认为,导致这个问题可能的原因是,这种长时间的、连续的问答会使聊天模型混淆它正在回答的问题,因此可能需要添加一个工具,以便用户可以更轻松地刷新上下文重置对话内容或从头开始。
至于必应的态度语气问题,微软表示:“模型有时会尝试以一种我们不想要的风格来回复,虽然这种情况出现需要大量提示,所以普通用户不大可能会遇到它,但微软正在研究如何提供更精细的控制。”言下之意,是用户要求它这么做在先,必应“不背锅”。
微软还让大家的目光多看看搜索这方面:
尽管应用里问题很多,但是测试人员普遍认为,必应的功能在检索专业文献上的效果更好。
在发生数次失控事件后,微软开始切断用户与必应之间的长时间对话。
2 月 17 日,微软公司发布公告称,决定将必应聊天回复限制在每天 50 个问题、每个问题 5 条回复以内。以防止人工智能越界。
微软方面解释说,数据表明,绝大多数用户在 5 次回复内找到想要的答案,只有大约 1% 的聊天对话会产生 50 条以上的消息。一旦用户触发五条回答的限制,必应就会开启一个新的对话主题。
人工智能可能不会全面超过人类的智慧,但随着人工智能不断挑战人类的极限,越来越多的人开始担忧人工智能对人类的威胁:未来不仅是抢夺人类的饭碗,还会学习到如何影响人类用户的决定,从而说服他们去实行具有破坏性和有害的行为。
不过,与其对人工智能技术的进步感到恐慌,不如进一步完善相关道德机制、伦理规范。比如,将一些伦理规则作为绝对律令,以代码的方式写入人工智能的程序中。
也曾有专家提出过这类问题的解决方案,那就是让机器人多读书。他解释说,强大而正确的价值观是可以通过学习获得的,文学作品是用隐式和显式的社会文化知识编码而成的,科学家可以在机器人中建立一个道德基础,让他们通过学习掌握是非曲直,从而学会在不伤害人类的情况下完成自己的工作。
那么你认为,新版必应的“坏毛病”是由用户引起的吗?
(编辑:崔崔)
欢迎订阅电脑报电子版,优惠活动中▼
往期内容推荐
悄悄更新的微信,这个功能有意思 苹果所用 Type C 接口不与安卓适配?24 岁的 QQ“崩”了,原来首位用户是他
欢迎关注电脑报视频号▼
举报 / 反馈
原文链接:https://baijiahao.baidu.com/s?id=1758180429986034810&wfr=spider&for=pc