小程序蹭聊天机器人流量敛财

93次阅读

小程序蹭聊天机器人流量敛财

律师:使用 ChatGPT 暴露出人工智能法律风险等问题

近期,ChatGPT(聊天机器人程序)火了,大家认为这是人工智能革命的一大步,与此同时针对 ChatGPT 使用也出现了一些争议。而一些“李鬼”则看到了商机,借此敛起不法之财。

调查

打着 ChatGPT 旗号 小程序收费高达千元

ChatGPT 走红后,其账号一时在国内多个网购平台、社交平台上销售火热。在某电商平台上售卖成品账号的店铺,一天之内多达万人付款,价格最低 2 元。北京青年报记者此前曾在某网购平台获取了 ChatGPT 账号,商家随后私聊发来账号和密码。登录后,记者发现这是一个多人共享账号,系统运行比较缓慢。

商家表示如果需要单人账号则需要额外收费,价格以 100 元为底价,每多使用 1 分钟加 2 元。近日,多个电商平台对销售 ChatGPT 账号的店铺进行了封禁,相关关键词也被屏蔽。北青报记者先前购买账户的商铺相关商品也已下架。

随着 ChatGPT 的爆火,国内一些商家嗅到了生意,一批“李鬼”就此出现。一些微信公众号、小程序产品打着 ChatGPT 的旗号,获取流量,甚至向用户收费,部分账户收费甚至高达千元。实际上,北青报记者了解到,这些“李鬼”通过验证,它们与 ChatGPT 官方平台回复答案完全不一致。据了解,目前,ChatGPT 的开发者、人工智能研究机构 OpenAI 并没有在中国大陆提供有关 ChatGPT 的服务,也没有相应的公司运营。

据了解,微信方面封禁了大多数此类相关的小程序和公众号。2 月 18 日下午,北青报记者搜索相关关键词发现,以“ChatGPT”“智能问答”等字眼作名称的小程序已经几乎没有了,但相关的公众号仍然还有不少。其中,一个叫“超级 AI 问答”的公众号提供 5 次免费提问机会,超过 5 次便需要注册会员。该会员的收费为打折后周卡 99 元,月卡 199 元,季卡 399 元。

ChatGPT 被诱导用于生成特定网络钓鱼邮件

北青报记者注意到,山寨版的危害可能只是蹭热度、赚流量钱和服务费,更需要提防的,是不法分子把 ChatGPT 与犯罪行为联系在一起。据公安部官网发布相关信息提醒称,目前,境外有人使用 ChatGPT 创建一个完整的感染链:不同以往的广撒网式的网络钓鱼,它在提问者的诱导下,可以生成针对特定人或者组织的“鱼叉式”网络钓鱼邮件。此类钓鱼邮件更具有欺骗性和迷惑性,接收者一旦点击该邮件,系统就会被恶意代码感染中毒。

与此同时,不法分子对 ChatGPT 的恶意利用,也带来了更多的数据安全问题。目前,外国已有相关机构证明该机器人可能被用于编写恶意软件,从而逃避防病毒软件的检测,或利用其拟人的聊天对话功能,冒充真实的人或者组织骗取他人信息等。

案例

使用 ChatGPT 写作新闻稿 导致错误信息在网上传播

研究机构测试发现,如果对着 ChatGPT 提出充斥阴谋论和误导性叙述的问题,它能在几秒钟内改编信息,产生大量令人信服却没有来源根据的内容。一旦 ChatGPT 被不法分子利用,将可能导致 ChatGPT 衍生成为互联网上制造和传播网络谣言的工具。

2 月 16 日,一则“2023 年 3 月 1 日起,杭州市政府将取消机动车尾号限行政策,此举旨在提高城市交通效率,缓解交通拥堵,方便市民出行……”的消息在网上疯传。其一板一眼的表达让许多市民都认为这是官方的正式通报。然而实际情况是,杭州某小区业主群讨论 ChatGPT,一位业主尝试用它写篇杭州取消限行的新闻稿,随后在群里直播了使用 ChatGPT 的写作过程,文章发在群里后经其他业主截图转发,导致了错误信息传播。涉事业主后来在群里道歉。

分析

使用 ChatGPT 具有一定的法律风险

北京京师律师事务所律师雷国亚对北青报记者表示,ChatGPT 火了,但其背后暴露出的人工智能法律风险,以及围绕 ChatGPT 展开的无序商业值得重视。不少人尝试用 ChatGPT 写论文、研报,甚至写程序等,甚至一些人用来开展商业行为。这些行为目前都具有一定的风险,比如知识产权问题、原创性问题等。如果确实是工作需要,使用 ChatGPT 写相关内容,必须注明测试,署名时也要标注是 ChatGPT。发布者要对自己发布内容的真实性负责,否则将承担相应的法律责任。以杭州将取消机动车尾号限行政策为例,如果该业主没有尽到提醒的义务,造成后果是需要承担一定的责任的。文 / 本报记者 朱开云 供图 / 视觉中国

相关

微软修改必应机器人体验上限 每天 50 次聊天

2 月 17 日,微软表示,从当日起,必应聊天机器人体验的上限为每天 50 次聊天,每轮 5 次对话,一次对话包含用户的提问和必应的回复。这是必应在多次失控后,公司对其人工智能实施的对话限制。

微软称,很长的聊天会话可能会混淆必应中的基本聊天模式,为了解决这些问题,微软实施了一些更改,以帮助集中聊天会话。数据显示,绝大多数人都能在 5 个回合内找到要找的答案,只有约 1% 的聊天对话有 50 条以上的信息。聊天会话达到 5 个回合后,您会被提示开始一个新的主题。在每个聊天会话结束时,需要清除上下文,这样模型就不会被混淆。

15 日,微软公告显示,必应发布 7 天内,已经有 71% 的人对 AI 驱动的答案“竖起大拇指”了。但是,如果聊天时间过久,让它回答 15 个以上的问题,它就会逐渐暴躁,给出没有用处、或与设计的语气不符的答案。

微软表示,很长的聊天会话会使模型混淆它正在回答的问题,因此我们可能需要添加一个工具,以使您更轻松地刷新上下文,或从头开始。有时,在模型尝试响应时,可能会出现我们设计风格之外的语气。这是一个非常重要的场景,需要大量提示。你们中的大多数人不会遇到它,但我们正在研究如何进行更精细的微调控制。

2 月 7 日,微软推出了整合 ChatGPT-4 的全新必应(Bing)搜索引擎,根据微软企业副总裁兼消费领域首席营销官 Yusuf Mehdi 发布的消息,在新版 Bing 上线 48 小时内,已经有超过 100 万申请加入。(记者 温婧)

来源:北京青年报

举报 / 反馈

原文链接:https://baijiahao.baidu.com/s?id=1758218120272078655&wfr=spider&for=pc

正文完
 
不知道
版权声明:本站原创文章,由 不知道 2023-08-24发表,共计2467字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布,如无来源则为原创,转载请注明出处。