6 个月前,几乎只有科研人员在关注大型语言模型的发展。但去年年底 ChatGPT 的推出,给全世界带来了重磅炸弹:机器现在能够以一种与人类几乎没有区别的方式进行交流。它们能够在几秒钟内写出文字,甚至是编写各大领域的代码,而且质量往往非常高。 这个月,GPT- 4 的推出进一步表明,人工智能正在以流星般的速度进步,而且可能将像其他技术一样从根本上改变人类社会。在未来,人工智能极有可能将一系列工作任务自动化,在白领群体中,这一现象会尤为常见。放在以前,这几乎是不可能的。 但是,技术进步的同时,无疑也给人类带来了新的难题。如何确保个人不会滥用技术?如何保护用户的隐私?这些问题,都亟待解决。
↑GPT-4
泄露用户聊天记录标题
ChatGPT 关闭一天后“残缺版”上线
据报道,当地时间周一上午,OpenAI 暂时关闭 ChatGPT 服务,理由是公司收到了一个错误报告,称 ChatGPT 允许一些用户看到其他用户聊天记录的标题。
OpenAI 的一位发言人告诉外媒记者,用户聊天记录的标题通常出现在 ChatGPT 网页左侧。虽然泄露了标题,但用户具体的对话内容是不可见的。该发言人说,公司发现这一错误后,ChatGPT 被暂时禁用。“一个未命名开源软件的一个错误导致了这个问题。公司仍在调查确切的原因。”
周一晚间,ChatGPT 重新上线,但用户的聊天记录仍然丢失。“历史记录暂时不可用。我们正在努力尽快恢复这一功能。”聊天页面显示。在周一晚间的声明中,发言人也说,“ChatGPT 现在已经恢复在线,我们正在努力恢复聊天记录。”
此次意外出现后,许多人不禁开始担忧,如何防止有人对人工智能进行恶意破坏或者入侵?一个小小的安慰是,OpenAI 和其他大公司都意识到,这些人工智能可能被人利用,用于发送垃圾邮件、传播错误信息、创建恶意软件、进行有针对性的骚扰。OpenAI 首席执行官萨姆·奥特曼此前就曾警告称,他担心政府行动不够迅速,无法围绕人工智能推出限制性政策。
实际上,ChatGPT 推出后,谷歌、苹果、Meta、百度和亚马逊等公司也不甘落后,希望自家的人工智能可以尽快进入市场,并且插入到每一个可能的应用和设备上。例如,ChatGPT 已经插入在了 Bing 搜索引擎中,而且很快就会出现在其他地方,比如车里、手机里、电视上。也许在激烈的市场竞争下,各大公司会将更多注意力放在制定预防性措施上。
大型语言模型生产成本越来越低
斯坦福大学不到 600 美元“复制”了 GPT-3.5
目前看来,ChatGPT 等大型语言模型的生产成本会越来越低。斯坦福大学近日的 Alpaca 模型就是一个很好的例子。在许多任务上,Alpaca 的表现与 ChatGPT 十分相似。据悉,Alpaca 建立在一个开源的语言模型上,训练成本不到 600 美元。
斯坦福大学的一个研究小组从 Meta 的开源 LLaMA 7B 语言模型开始。该小组使用 GPT-3.5 给 LLaMA 7B 提供了一套关于如何完成其工作的指令。接下来,他们对产生的 Alpaca 模型进行了测试,并且将它与 ChatGPT 在各种领域(包括电子邮件写作、社交媒体和生产力工具)的表现进行对比。在这些测试中,Alpaca 赢得了 90 项,ChatGPT 赢得了 89 项。
“鉴于模型规模小,数据量不大,我们对这一结果相当惊讶。”该团队写道,“除了利用静态评估集,我们还对 Alpaca 模型进行了交互式测试,发现 Alpaca 在不同的输入集上往往表现得与 GPT-3.5 类似。我们承认,我们的评估在规模和多样性方面可能是有限的。”
该团队指出,他们还没有对模型进行微调,不能保证其安全无害。“如果我们继续寻求优化的话,可能会更便宜。”
红星新闻记者 徐缓 实习记者 梁宏
编辑 郭庄 责任编辑 魏孔明
(下载红星新闻,报料有奖!)
举报 / 反馈
原文链接:https://baijiahao.baidu.com/s?id=1761058585911551963&wfr=spider&for=pc