福布斯技术委员会:如何「负责任的」搭建人工智能系统

115次阅读

福布斯技术委员会:如何「负责任的」搭建人工智能系统插图

自 AI 蓄势爆发以来,人工智能 (AI) 正在改变商业格局。有数据表明,越来越多的风险投资正在向生成式人工智能项目注入资金,企业对人工智能的投资也达到历史最高水平。Forrester 曾在 2022 年预测,未来两年人工智能软件市场的增长速度将比整体软件市场快 50%。然而,这种炒作与对人工智能对人类潜在风险的严重担忧密切相关。

#01.

人工智能「狂野西部时代」终结的起点

尽管 OpenAI 的 ChatGPT 的兴起引发了人们对使用和投资生成式 AI 的兴趣,但这一现象背后也并非没有谨慎和警告。人工智能已经从之前的重大技术进步中脱颖而出——与同样得到广泛投资和采用的云计算、VR、AR、移动和 5G 技术不同,人工智能为各公司和行业提供了无数的用例和无限的可能性。但这使得预测和管理其带来的大量风险及其对个人、公司和社会的潜在影响变得困难,比如最近影响了好莱坞的罢工事件,其中不乏 AI 所带来的问题的影响。

福布斯技术委员会:如何「负责任的」搭建人工智能系统插图1

针对此类问题的解决方案是创造行业内共同认知并规范人工智能,尤其对人工智能系统的道德、透明和值得信赖的开发部署加以规范——马斯克的 xAI 似乎正准备把这一目的当成其 AI 系统的准则。当然,理想的情况下,负责任的人工智能有助于提高可信度,使得人们在日常生活中与之互动的人工智能不会永久存在偏见和“政治正确”,算法会在人类监督下定期进行审核,并且这一设计和实施方式应当易于理解。然而,现实情况是,对于这种看似完美的解决方案,人们可能很难知道从哪里着手开始进行。

#02.

应对复杂的人工智能风险形势

在以负责任和道德的方式开发和部署人工智能之前,了解人工智能开发不同类型的风险,以及如何解决这些风险是非常重要的,针对 AI 系统,福布斯技术委员会提出了以下几种需要注意的风险类型。

隐私风险。人工智能需要访问大量数据来学习和提高其性能,其中可能包括个人信息和敏感信息。个人数据的滥用或处理不当可能会导致数据泄露、身份盗窃和其他损害——侵犯隐私权。

道德风险。道德问题围绕偏见和歧视、透明度和问责制以及人工智能对就业和社会的影响。随着人工智能越来越多地用于决策,确保结果公平和准确的风险变得越来越大。

福布斯技术委员会:如何「负责任的」搭建人工智能系统插图2

合规风险。全球范围内正在提出一些新的法规,例如欧盟的人工智能法案,该法案将要求组织披露他们如何使用、治理和管理人工智能。组织需要对模型的使用方式、模型的训练方式、使用的数据等的整个流程进行密切的管理和记录。

透明度和信任风险。人工智能模型可能很复杂且难以理解,因此很难了解它们如何做出某些决策或预测。随着人工智能采用率的飙升,算法将在人们的生活中发挥强大的(并且可能有害或有偏见的)作用。透明度(或缺乏透明度)将极大地影响人们对人工智能公司和行业的信任程度。

操作风险。使用人工智能可以产生新的依赖关系,严重依赖人工智能系统的企业,在没有人工智能系统的情况下可能缺乏有效运营的能力。如果人工智能系统发生故障或受到损害,或者监管变化认为该系统无法使用,这可能会引发重大的业务连续性风险。

#03.

构建信任和安全层

为了安全、负责任地使用人工智能,首先要从文化入手。

一旦组织了解了与人工智能相关的不同风险,他们就可以制定和实施全面的人工智能战略,和负责任的人工智能框架。团队和利益相关者之间的协作和开放沟通是组织内负责任地采用人工智能的关键。

而为了确保对整个组织的有效支持,利益相关者需要从教育和提升最高管理层的人工智能素养开始。

福布斯技术委员会认为,主要利益相关者、董事会成员和高管都应参与开发负责任的人工智能方法,以满足业务创新、规模化和展示影响力的需求,同时支持集成隐私、道德、运营、透明度和合规性考虑因素的强大的负责任的人工智能框架。

福布斯技术委员会:如何「负责任的」搭建人工智能系统插图3

同时,有效管理人工智能风险需要的不仅仅是文化认同;组织需要确保全新的可见性水平,涵盖人工智能可能在整个业务中使用的许多不同领域。除非组织能够识别人工智能在其业务中的每一个应用,否则负责任的人工智能就无法完全实现。

将人工智能集成到现有的数据管理计划中。

数据既可以是组织最大的资产,也可以是最大的威胁,这一观点往往侧重于,不负责任地使用数据时,所产生的潜在隐私和安全风险。对于人工智能来说尤其如此,因为组织利用人工智能实现差异化的能力取决于数据集的质量。

同样,如果机器学习平台中使用的数据是个人数据或敏感数据、未经同意使用或可能产生偏见,公司将面临一系列隐私、道德或合规风险。

这就是为什么,公司必须确保将其人工智能计划中使用的数据集成到其现有的数据治理和风险管理计划中,这一点至关重要。通常,人工智能的数据并不只属于一个团队,相同的数据正在整个企业的其他地方使用。然而,人工智能程序往往存在于“孤岛”中。

福布斯技术委员会指出,通过将负责任的人工智能程序集成到现有的大型数据管理计划中,组织可以确保将正确的隐私和安全策略,以及安全和控制措施应用于人工智能数据集和模型。随着人工智能成为战略重点,这种做法也增强了关键隐私、安全、数据科学和 MLOps 团队对人工智能的广泛认识。

而通过将人工智能纳入更广泛的数据管理计划中,组织可以有效地管理风险、并确保人工智能的使用符合道德规范和必要的标准和法规。

原文链接:https://new.qq.com/rain/a/20230809A095UK00

正文完
 
不知道
版权声明:本站原创文章,由 不知道 2023-08-09发表,共计2131字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布,如无来源则为原创,转载请注明出处。