爆火的生成式 AI 产业正式迎来首个监管文件。
继今年 4 月网信办就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见后,7 月 13 日,网信办等七部门正式发布了《生成式人工智能服务管理暂行办法》(下文简称 “《办法》”),该办法自 2023 年 8 月 15 日起施行。
国家互联网信息办公室有关负责人表示,出台《办法》,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。以 OpenAI 发布的 ChatGPT 为代表的生成式人工智能,正在激发包括微软、谷歌、Meta、百度、阿里巴巴等国内外科技巨头以及创业者的新一轮 “AI 军备竞赛 ”。
最新出台的《办法》共 24 条,从生成式人工智能服务提供者的算法设计与备案、训练数据、模型,到用户隐私、商业秘密的保护,监督检查和法律责任等方面提出了相关要求。同时《办法》中明确了对生成式 AI 产业的支持和鼓励态度。
北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括对第一财经记者表示,对于生成式人工智能相关监管文件出台速度快,体现了与技术发展和应用态势的同步推动,反映了中国网络监管、数字监管日益成熟和敏捷高效的演进态势。
多位从业者对第一财经表示,《办法》强调了落地的可执行性,体现了风险防范、风险应对和风险管理的基本思路,它的实施对推动产业发展有重要的意义,为生成式人工智能的发展创造了良好的创新生态。
释放哪些监管信号?
吴沈括对第一财经记者表示,今天出台的《办法》在三个方面尤为突出:一是强调了 AIGC 的分类分级管理机制,突出了针对不同风险类型后续引入相关监管机制的思路;二是注重 AIGC 产业生态的培育,特别是关于算力资源共享以及预训练公共数据平台的建设问题;三是办法强调了国内外的交流合作,在适用范围上,针对境外、境内提供服务以及不向境内提供服务的业务类型做了区分,明确了办法的适用范围。
第一财经梳理对比发现,与此前的《征求意见稿》相比,今日发布的《办法》新增多处对于生成式人工智能服务的相关鼓励。
例如,在第二章技术发展与治理的第五条与第六条,都提到了要鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。此外,还鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定。
《办法》还提到,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
在业界尤为关注的算力方面,《办法》也提及,推动生成式人工智能基础设施和公共训练数据资源平台建设。促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。鼓励采用安全可信的芯片、软件、工具、算力和数据资源。
在服务商准入方面,《办法》还提到,对于外商投资生成式人工智能服务的,应当符合外商投资相关法律、行政法规的规定。
对于生成内容的真实可靠性问题,相比《征求意见稿》,《办法》的说法有了一定调整。
“ 一本正经胡说八道 ” 是业界对于生成式人工智能诟病较多的问题。《征求意见稿》中提到,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;此次《办法》则更新为,为了基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
此外,《办法》还提到对于网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门,要依据各自职责依法加强对生成式人工智能服务的管理。
业界人士对记者指出,《办法》体现了一定的容错机制,更符合实际,提升了执行的可行性。
“ 很多应用领域是可以容忍不完美的大模型,比如游戏里某个英雄胡子长一点、短一点,说错一句话,偶尔犯错可能无伤大雅;但有些领域非常关键,是不能容忍犯错的,比如新闻搜索、政府网站或者是医疗教育相关,这些领域未来需要解决大模型犯错的问题。” 有大模型从业者这样表示。
对于未成年人的保护,《办法》的内容也进行了着重强调。
此前《征求意见稿》提到,采取适当措施防范用户过分依赖或沉迷生成内容;此次《办法》则更新为,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。
在围绕对于生成式人工智能的监督方面,《办法》还提到,有关主管部门依据职责对生成式人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。
对于个人隐私、商业秘密等保护,《办法》中有多条涉及相关内容,例如参与生成式人工智能服务安全评估和监督检查的相关机构和人员对在履行职责中知悉的国家秘密、商业秘密、个人隐私和个人信息应当依法予以保密,不得泄露或者非法向他人提供等等。
产业影响几何?
中国电子云副总裁李树翀看到《办法》的第一反应是:“ 正当时!”。他对第六条中提到的 “ 鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新 ” 颇有感触。“ 如今英伟达已经一卡难求,再不能让大模型卡住正被重塑的计算体系。” 他告诉第一财经。
此外他还表示,《办法》将规范 “ 大模型 ” 行业应用与场景落地,让 AI 技术更好的服务经济和产业高质量发展。
商汤科技智能产业研究院院长田丰对第一财经记者评价,《办法》有着全球 AI2.0 治理引领性、落地可执行性,并对推动产业发展有重要的意义。
达观数据 CEO 陈运文对第一财经记者表示:“ 行业发展接下来会逐步规范。这个《办法》的出台对生成式大模型服务起了引导作用,生成式 AI 技术很新也很热,接下来落地发展要靠这个制度来引导。”
还有一位从业者表示,这一《办法》重视防范风险的同时,也体现了一定的容错和纠错机制,努力实现规范与发展的动态平衡。
对于《办法》中提到的安全、可信、监管等话题,此前也引起了不少大模型从业者的重视与讨论。
百度董事长李彦宏不久前表示,只有建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德,才能营造良好的创新生态。
360 创始人周鸿祎则提到,要打造 “ 安全可信、可控易用 ” 的专有大模型。他提出,模型实现 “ 安全可控 ” 的关键在于要坚持 “ 辅助模式 ”,将大模型定位为企业和员工的助手,作为 “ 副驾驶 ” 角色提供帮助,让人的意志在整个决策回路中起到关键作用。
阿里云智能集团董事长兼首席执行官张勇也表示,“ 构建安全可信的人工智能 ” 逐步成为行业共识,相关法律法规正在完善,为技术和产业的可持续发展培育了良好的土壤与环境。“ 创新中有很多不确定性,有些可以预判在前,防患于未然;有的问题在发展中出现,需要边发展边解决,用发展去解决。”
全球酝酿监管措施
不只在中国,类 ChatGPT 的生成式人工智能(AIGC)大模型引发资本竞逐,各国对于 AIGC 合规性的重视正在推动相应的监管措施出台。
欧洲一直走在人工智能监管的前沿。今年 5 月,欧盟议会已经批准了首个全面的人工智能法案。“ 我们希望人工智能系统准确、可靠、安全且无歧视,无论其来源如何。” 欧盟委员会主席乌尔苏拉 · 冯德莱恩 5 月 19 日表示。
同样是在今年 5 月日本召开的七国集团(G7)领导人峰会上,成员国领导人承认需要对人工智能和沉浸式技术进行治理,并提出在今年年底之前创建一个专门讨论人工智能进展的部长级论坛,讨论围绕生成式人工智能的问题,例如版权和打击虚假信息。
英国竞争监管机构今年 5 月也表示,将开始审查人工智能对消费者、企业和经济的影响,以及是否需要新的监管措施。
爱尔兰数据保护负责机构今年 4 月表示,生成式人工智能需要受到监管,但管理机构必须在仓促实施 “ 确实站不住脚 ” 的禁令之前弄清楚如何正确监管。
美国商务部下属的国家标准与技术研究院 6 月表示,将成立一个由生成式人工智能专家志愿者组成的公共工作组,以帮助抓住人工智能带来的行业机遇并制定应对其风险的指导。美国联邦贸易委员会 5 月表示,该机构致力于利用现有法律来控制人工智能的风险。
日本隐私监管机构 6 月表示,已警告 OpenAI 不得在未经公众许可的情况下收集敏感数据。日本预计将在 2023 年底之前出台监管措施,这些监管措施可能更接近美国的态度,而不是欧盟计划的严格监管措施,因为日本希望这项技术能够促进经济增长,并使其成为先进芯片的领导者。
联合国秘书长安东尼奥 · 古特雷斯 6 月 12 日支持一些人工智能高管提出的建立像国际原子能机构这样的人工智能监管机构的提议。古特雷斯还宣布计划在今年年底前启动高级别人工智能咨询机构的工作,定期审查人工智能治理安排并提出建议。
面对生成式人工智能的全球监管趋势,吴沈括对第一财经记者表示,面对新技术新应用,需要持续地探索一套敏捷高效的监管机制和监管方式,最大限度地及时应对和处置伴生的各种风险类型。此外也需要持续地构建和完善一套经济、便利、可行的合规指引,使各方主体有清晰的合规标准和指向。
“ 良好的生态治理也需要各方最大限度地凝聚共识,在更大范围内形成有关新技术、新应用的治理的价值共同点以及共同认可的行为准则。” 他说。
可以说,每一次技术革命都伴随着带来巨大的机遇和风险。对于生成式人工智能而言,只有建立起真实的用户调用和模型迭代之间的飞轮,AI 模型才能变得越来越聪明,而如何在政策监管和技术发展之间找到平衡也考验着全球的监管机构。(记者樊雪寒对本文亦有贡献)
原文链接:http://news.cctv.com/2023/07/14/ARTIGRsmPC1W2fNWwJsyraDY230714.shtml