什么是人工智能
人工智能(Artificial Intelligence,简称 “ AI”)自诞生之日 起,其定义与内涵就一直存在争议。从字面上看,AI 由 “ 人 工 ” 和 “ 智能 ” 两词构成,其核心是智能。因此,人工智能首先 是智能的一种。但是人工智能是人造的,而非自然形成的智能(如我们人类的智能就是经过长期的进化而形成的一种生物智能)。进一步理解人工智能的关键,在于理解 “ 智能是什么 ”,这其实是一个难以回答的问题。一个普遍的认识是 “ 智能是利用知识解决问题的能力 ”。作为 “ 万物之灵长 ” 的人类,其智能很大程度上就体现在人类能够发现知识并利用知识解决各类问 题。人工智能的研究与实践的一个重要目标就是回答 “ 智能是什么 ” 这一问题。对这个问题的回答,将成为我们这代人甚至后面几代人共同努力的方向与目标。
如果需要给人工智能下一个定义,可以表述为:人工智能是通过智能机器延伸、增强人类改造自然和治理社会能力的科学与技术。人工智能首先是一门科学,因为我们需要解释智能 的本质,需要回答智能能否计算、如何计算等科学问题。人工智能更是一项工程,因为我们需要让机器实现对于人类智能的模拟,从而解决需要人类智能才能解决的问题。因此,人工智 能兼有科学与工程的属性。也正是这个原因,决定了人工智能的跨学科和综合特性。人工智能涉及哲学、心理学、数学、语言学、计算机等多个学科。人工智能的最终目标不是发展自主的机器智能,而是借助人工智能增强人类认识世界、改造世界的能力。拓展和延伸人类的智能,并最终造福人类社会,是发展人工智能的根本使命,也是唯一使命。人工智能是以人类智能为模板进行拓印与塑形的,理解与模拟人类智能是人工智能实现的基本路径。人类智能,外观体现为行为,内察体现为思维。人工智能的研究与实践不论其形式如何不同,其最终落脚点要么是让机器具备人类身体的智能行为能力,要么是让机器具备人类心灵的复杂思维能力。
人类的智能行为能力体现在其身体的感知与运动能力。我们的身体具有五官与四肢。我们通过五官识音辨声、识图辨形、辨别气味等,通过四肢操纵物体、运动身体,从而实现身体与环境的复杂交互。机器实现这些能力需要具备模式识别与反馈控制能力。比如,为了识别一个手写字是不是 “0”,机器必须能够从手写体输入数据中识别出 “0” 所对应的书写模式。模式识别能力是我们五官所具备的基本能力。我们人类的四肢能够十分柔韧、灵活地做出各类动作,实现各类物体操纵,这背后体现的是人类四肢与环境的强大交互能力。比如机械手臂在抓举物品时,需要实时感知物品的位置以及抓举的力度,从而及时调整抓举的动作与姿态,最终完成抓举动作。近年来,机器在模式识别与运动控制等能力上飞速发展,已经初步达到人类水平。以感知数据中的模式、物理世界的状态为主,让机器具备人类的智能行为为主要目标的人工智能研究和实践,我们称之为 “ 感知派 ”。
人类的智能更为鲜明地体现在人类的复杂心智上。人类的心智活动十分多样,包括语言理解、场景理解、调度规划、智能检索、学习归纳、推理决策等。塑造人类心智能力的器官是我 们的大脑。理解大脑的运作机制,从而实现类脑智能,一直以来是科学家们持之以恒为之奋斗的目标之一。随着人工智能的发展,让机器具有一颗聪慧的大脑,已被迫切地提上议事日程。有身无心的机器就好比没有灵魂的 “ 僵尸 ”,虽然也能解决很多问题,但是难以进入人类社会,成为人类有趣的 “ 伙伴 ”。如 果人工智能的发展仅是停留在感知与运动阶段,机器只是达到了一般动物的智能水平,而真正意义上使得人类从动物本性中脱胎而出的是人类独有的心智能力。虽然动物也有大脑,也有 一定的心智水平,但是人类心智与动物心智的根本差别在于人类的认知能力。认知能力是指人脑接受外界信息,经过加工处理,转换成内在的心理活动,从而形成对世界的认知体验的过程。它包括时空认知、因果认知、语言认知、文化认知等方面。很显然,目前只有人类具有认知能力,以 “ 认知 ” 为基础的人工智能研究和实践,被称为 “ 认知派 ”,将是未来人工智能研究与实践的焦点。
值得注意的是,虽然人类是实现人工智能的模板,但是人工智能在当下的实践已经不单单以 “ 类人 ” 为目标,很多时候是远超人类水平的。人类的特定智能很多情况下是有局限的。比如,我们在决定买哪本人工智能教材时,其决策要素一般不超过 5—7 个,而机器则可以同时考虑数以百万计的决策要素进行判断。人类感知的物理范围是十分有限的,而机器视觉可 以识别数千米范围内的目标。因此,在很多单项智能上,人类被机器超越只是时间问题,如计算、下棋、识图、辨声等。人工智能的发展进程必定是我们见证人类单项智能被机器逐步超越 的过程。但是有一个至关重要的奖项,智能的 “ 全能冠军 ”,却是机器难以从人类手中夺走的。无数个智能的单项冠军也难以企及这一 “ 全能冠军 ” 的智能水平。这就引出了人工智能的强弱之分的话题。
人工智能除了有 “ 感知 ” 与 “ 认知 ” 之分,亦有 “ 强 ”“ 弱 ” 之 分。任何一台普通的计算器在数值运算方面的能力远超我们人类最聪明的头脑,但是不会有人觉得他比 3 岁的儿童更智能。其背 后的根本原因在于,计算器只能胜任数值计算这一单项任务,而 3 岁儿童却能胜任几乎无法穷举的任务,如识别父母、寻找奶瓶、辨别声音等。因此,智能的强弱很大程度上体现在其通用或单一的程度。强的智能是能够胜任任何任务求解所需要的智能,而弱的智能仅限于解决某个特定任务,强人工智能的实现显然远远难于弱人工智能。当前取得实际应用效果的仍以弱人工智能为主。实现强人工智能任重道远,但却不可回避。因为强人工智能解决 的是人工智能的根本难题:现实世界的开放性。现实世界是复杂的,真实任务是多样的,而我们的计算机当前只能胜任预定义的任务与场景,一旦碰到从未见过的案例、样本、场景,就显得无能为力。努力提升机器智能的适应性,以及对于开放性的应对能力,已经成为人工智能最为重要的研究课题之一。
值得注意的是,人工智能仍然是个不断发展中的学科,其内涵仍在不断丰富与完善,一些新的研究视角在为人工智能持续增添新的内涵,如 AI 的安全性与可控性、AI 的黑盒化与可解释、AI 与人文学科、AI 与社会发展、AI 与脑科学等,这些新的研究视角在持续推动 AI 概念的发展与完善。
人工智能发展的历程
“ 理想很丰满,现实很骨感 ”,“ 柳暗花明又一村 ”,用这两句话来表达人工智能的发展历程是再恰当不过的了。纵观人工智能的发展历程,大体可分为三次高潮和两个低谷期。
1. 人工智能发展的第一次高潮
20 世纪 40 至 50 年代,来自不同领域的一批科学家开 始探讨制造人工大脑的可能性,这是人工智能问题的雏形。1943 年,美国麻省理工学院的两位科学家沃伦 · 麦卡洛克(Warren McCulloch)和沃尔特 · 皮茨(Walter Pitts)提出了一种生物神经元的数学模型,使得利用计算机模拟的人工神经元成为可能。多个人工神经元连接在一起可以形成一个类 似生物神经网络的网络结构(参见图引 -1)。1957 年,弗兰克 · 罗森勃拉特(Frank Rosenblatt)提出了感知器模型,将神经网络研究推向工程实现。
1950 年,英国计算机专家艾伦 · 图灵(Alan Turing)提出了著名的图灵测试,用来判断一台机器是否具有人类智能。它更像一场有趣的 “ 模仿游戏 ”:由测试者向被测试者提出多个问 题,根据被测试者的回答判断被测试者是人还是机器。如果有超过 30% 的测试者不能确定被测试者是人还是机器,那么就可以说这台机器具有人类智能(参见图引 -2)。由于图灵测试只能测试机器是否具有智能的外在表现,随着人工智能的发展,它日益暴露出局限性。设想一下,如果将对话任务换成下围棋,我们现在显然无法再根据机器的围棋水平来判断对方是人还是机器。因为众所周知,机器在围棋游戏方面已经远超人类冠军水平。随着机器语音和对话能力的提升,我们也越来越难以判断为你服务的电话客服到底是机器还是人类。
1956 年,在美国汉诺威小镇的达特茅斯学院召开的一次研讨会上,一批各有所长的科学家聚在一起,讨论着一个当时被认为不切实际的主题 —— 让逐渐成熟的计算机代替人类解决一些感知、认知乃至决策的问题。会议整整开了 2 个月,科学家们各执一词,谁都说服不了谁,最后有人提出了 “ 人工智能 ” 的说法。这次会议被公认为人工智能诞生的标志。同年,人工智能被确立为一门学科。
这一新兴学科的产生,很快就引起学术界的广泛关注,研究者纷至沓来,新课题层出不穷。从 20 世纪 50 年代后期到 60 年代,涌现出了一大批成功的 AI 程序和新的研究方向。有人 开发了程序 STUDENT,它能够解决高中程度的代数应用题,被认为是人工智能在自然语言处理领域早期的应用成果。有人创建了全世界最早的聊天机器人 ELIZA,它可以使用英语和用户交流。ELIZA 是一个早期的自然语言处理程序,它通过模式匹配和替代的方式来实现人机对话(其实只是按固定套路作答,机器并不理解语言的意义,实际上距离真正的人工智能还有很长的距离要走)。
20 世纪 60 年代中期,人工智能研究在资金方面得到了大量资助,并且在世界各地建立了实验室。当时人工智能的研究人员们对未来充满信心,著名的科学家赫伯特 · 西蒙(Herbert Simon)甚至预言:“ 机器将能够在 20 年内完成人类可以做的任何工作。” 还有的科学家认为 “ 在一代人之内 …… 创造 ‘ 人工智能 ’ 的问题将基本解决 ”。人工智能研究迎来了第一个 “ 黄金 ” 发展时期。
然而,现实并不像人们预期的那样乐观,人工智能的发展遭遇了瓶颈。主要的原因是:当时计算机的运算能力和数据处理能力较低,数据也相对匮乏,不能满足解决复杂问题的需要。人工智能步入第一次低谷期。
2. 人工智能发展的第二次高潮
进入 20 世纪 80 年代早期后,随着新兴的工业、商业、金融等行业的发展,人工智能研究作为附属于其他行业的辅助性手段与工具得到了一定的恢复。
这一时期比较有代表性的研究进展包括:
一是 “ 专家系统 ” 的出现。这是一种模拟人类专家知识和分析技能的人工智能系统,通过知识表示和知识推理技术,来模拟领域专家解决问题的过程。专家系统以知识库和推理机为核心,利用知识得到一个满意的解是系统的求解目标。著名的专家系统包括:ExSys(第一 个商用的专家系统)、Mycin(一个诊断系统)等。
二是神经网络模型的再次兴起。大卫 · 鲁姆哈特(David Rumelhart)等人于 20 世纪 80 年代提出的多层感知器及反向传播算法,优化了神经网络的训练方法。
这一时期比较有影响力的人工智能应用是日本的 “ 第五代计算机项目 ”。20 世纪 80 年代,日本提出了 “ 第五代计算机项目 ”。它的主要目标之一是突破所谓的 “ 冯 · 诺依曼瓶颈 ”(冯 · 诺依曼架构是以存储程序为核心思想的主流计算机体系结构,当时的日本学者认为这一体系结构只能实现有限的运算和信息处理,因此称之为 “ 冯 · 诺依曼瓶颈 ”),实现具有推理以及知识处理能力的人工智能计算机。在第五代计算机项目的激励下,人工智能领域的研究项目得到推进。1985 年,人工智能市场规模已超过十亿美元。
然而,好景不长。受限于当时有限的数据和算力,机器仍然难以应对复杂情形。比如,专家系统中的 if-then 规则在描述复杂问题时呈指数增长,有限的算力难以支撑这类复杂问题的 解决。从 1987 年 Lisp(人工智能程序设计的主要语言)机市场崩溃开始,人们对专家系统和人工智能失去信任,人工智能进入第二次低谷期。
3. 人工智能发展的第三次高潮
始于 20 世纪 90 年代末和本世纪初,人工智能再一次悄然崛起。2006 年,加拿大多伦多大学的杰弗里 · 辛顿(Geoffrey Hinton)教授及其学生提出了深度学习,并迅速在图像识别、语音识别、游戏和搜索引擎等领域获得显著效果。除了以深度学习为代表算法的这一原因之外,这一阶段的成功还得益于计算机计算能力的提升以及各行各业海量数据的累积。
这一波人工智能浪潮仍在发展,已发生的比较具有代表性的事件有:
一是计算机与人类的棋坛博弈。1997 年 5 月 11 日,深蓝成为第一个击败卫冕国际象棋世界冠军加里 · 卡斯帕罗夫的计算机国际象棋系统。2016 年 3 月,阿尔法围棋(AlphaGo)以 4∶1 击败李世石,成为第一个击败职业围棋世界冠军的电脑围棋程序。2017 年 5 月,阿尔法围棋在中国乌镇围棋峰会的三局比赛中,击败了当时世界排名第一的中国棋手柯洁。在这个基础上,经过强化学习训练后,阿法元(AlphaGoZero)无需人类经验,通过自我博弈,以 100∶0 击败阿尔法围棋。
二是机器在图像识别与语音识别等任务中达到人类水平。图像处理任务中的错误率自 2011 年以来显著下降。在计算机视觉领域,如手写数字体识别数据集上,神经网络的准确率已 经超过人类的平均准确率。在语音识别方面,科大讯飞等公司的语音识别率高达 98%(2018 年的水平),语音识别水平在 2016 年就已经达到了人类水平。
三是机器在语言理解等相关任务上取得长足的进步。让机器具备理解人类自然语言的能力是人工智能发展历程中具有里程碑意义的任务。更有专家认为,语言理解是人工智能桂冠上 的明珠。近年来,得益于深度学习模型和大规模语料,机器在一系列语言理解任务中攻城略地。比如在斯坦福问答数据集(Stanford Question Answering Dataset,简称 “ SQuAD”)文本理解挑战赛上,早在 2018 年年初,来自阿里的研究团队所提出的机器阅读理解模型就取得超过人类水平的准确率。在 2018 年的谷歌 I/O 大会上,谷歌展示了一段谷歌助理(谷歌的一个应用软件)与人类长达数分钟的电话,现场观众几乎无法分辨出谁是机器,谁是人类。此后,各类客服电话大量由机器代替,智能客服的成功应用大幅降低了人工客服成本。
这些事件的发生,让人们充分认识到人工智能技术所蕴含的经济价值与社会潜能。人们对人工智能技术的认识由此上升到了一个前所未有的高度,从而极大地推动了人工智能技术的发展。
人工智能研究的不同视角
人工智能是个庞杂的学科,不同的视角对人工智能的理解不尽相同。让我们来了解一下人工智能研究中主要学术流派的看法吧!
1. 符号主义流派是这样认为的
符号主义流派认为人工智能源于数理逻辑,又称 “ 逻辑主义流派 ”。数理逻辑从 19 世纪末起获得迅速发展,到 20 世纪 30 年代开始用于描述智能行为。计算机出现后,又在计算机上 实现了逻辑演绎系统,其代表性成果为启发式程序 LT(逻辑 理论家),证明了 38 条数学定理,表明应用计算机研究人的思维过程,可以模拟人类智能活动。
符号主义认为人类的认知过程是符号操作与运算的过程,主张用公理和逻辑体系搭建一套人工智能系统。符号主义认为,知识表示、知识推理和知识应用是人工智能的核心。知识 可以用符号来表示,认知是符号加工的过程,推理是使用理智从某些前提产生结论的行动。符号主义者致力于用计算机的符号操作来模拟人的认知过程,其实质就是模拟人的左脑抽象逻 辑思维。符号主义者最早采用了 “ 人工智能 ” 这个术语,后来又发展了专家系统、知识工程理论与技术,并在 20 世纪 80 年代取得了很大发展。
符号主义流派曾长期一枝独秀,为人工智能的发展作出重要贡献,尤其是专家系统的成功开发与应用,为人工智能走向工程应用、实现理论联系实际具有重要意义。在人工智能的其 他学派出现之后,符号主义仍然是人工智能的主流学派之一。
2. 联结主义流派是这样认为的
联结主义学派,又称 “ 仿生学派 ” 或 “ 生理学派 ”,其主要关注神经网络及神经网络间的联结机制和学习算法。联结主义认为,人工智能源于仿生学,特别是人脑模型的研究。联结主义从神经元开始,进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。联结主义学派从神经生理学和认知科学的研究成果出发,把人的智能归结为人脑的高层活动的结果,强调智能活动是由大量简单的单元通过复杂的相互联结后并行运行的结果,其中人工神经网络就是其代表性技术。
联结主义发端于 1943 年,诞生了生物神经元的计算模型 “ M-P 模型 ”,其后经历了 1957 年 “ 感知器 ” 模型,1982 年 Hopfield 模型以及 1986 年提出的反向传播算法等代表性事件。联结主义在近期的代表性进展就是深度学习。2012 年,在 ImageNet 大型视觉识别挑战赛中,深度学习模型以绝对领先的成绩拔得头筹。随着硬件技术的发展,深度学习成为当下实现人工智能的主流技术之一。
符号主义与联结主义的发展呈现出此起彼落的态势。事实上,两者各有其价值与意义,对于人工智能的发展都是不可或缺的,应该协同并进、共同促进人工智能的发展。符号主义从宏观上(人类的思维过程)模拟人类的认知过程,而联结主义则从微观上(神经网络的结构与参数)实现对于人脑功能的模拟。从当前人工智能发展趋势来看,由联结主义实现模式识别等初步感知任务,进而将相关结果输入符号主义的相关系统中,实现深度的推理与解释,是未来人工智能发展的基本模式。
3. 行为主义流派是这样认为的
行为主义流派,又称 “ 进化主义流派 ” 或 “ 控制论学派 ”。行为主义流派认为人工智能源于控制论,研究内容包括生命现象的仿生系统、人工建模与仿真、进化动力学、人工生命的计算理论、进化与学习综合系统以及人工生命的应用等。行为主义认为,人工智能可以像人类智能一样逐步进化,智能体的智能行为只能通过其与现实世界及周围环境的交互而表现出来。
控制论思想早在 20 世纪四五十年代就成为时代思潮的重要部分,影响了早期的人工智能研究者。美国数学家诺伯特 · 维纳(Norbert Wiener)等人提出的控制论和自组织系统以及我国科学家钱学森等人提出的工程控制论和生物控制论,影响了许多领域。早期的研究工作重点是模拟人在控制过程中的智能行为和作用,如对自寻优、自适应、自校正、自镇定、自组织和自学习等控制论系统的研究,并进行 “ 控制论动物 ” 的研制。到 20 世纪六七十年代,上述这些控制论系统的研究取得一定进展,播下智能控制和智能机器人的种子,并在八十年代诞生了智能控制和智能机器人系统。
直到 20 世纪末,行为主义流派才以人工智能新学派的面孔出现,引起许多人的关注。这一学派的代表作首推美国麻省理工学院的罗德尼 · 布鲁克斯 (Rodney Brooks) 所研发的六足行走机器人,它被看作新一代的 “ 控制论动物 ”,是一个基于感知 — 动作模式的模拟昆虫行为的控制系统。事实上,这种通过与环境自适应交互所形成的智能,是一种 “ 没有推理的智能 ”。近期,在深度强化学习等技术的推动下,机器人的环境交互能力得到显著提升,能跑会跳、满世界 “ 溜达 ” 的机器人已经逐步变成现实。
人工智能三要素
人工智能在近期的飞速发展,主要得益于数据的快速积累、计算能力的不断提升以及算法的改进优化。因此,人们把数据、算力和算法称为人工智能三要素。
1. 人工智能与大数据
什么是大数据?一般地说,大数据是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新的处理模式才能具有更强的决策力、洞察发现力和流程优 化能力的海量、高增长率和多样化的信息资产。
大数据一般具有大量(Volume)、高速(Velocity)、多样(Variety)、低价值密度(Value)、真实性(Veracity)五个特点,也 称其为大数据的 5V 特点。“ 大量 ” 指数据体量极大,数据量从 TB 级别到 PB 级别;“ 高速 ” 指数据产生和处理的速度非常快,如工业大数据应用中部署的各种传感器能够以每秒数个 G 的采集频率采集数据;“ 多样 ” 指数据类型很多,如语音、文字、图片和视频等,不同类型的数据往往需要不同的处理手段;“ 低价值密度 ” 指大量的数据中有价值的只有极少数,如监控视频中最有价值的数据往往只有几秒;“ 真实性 ” 指追求高质量的数据,因为数据的规模并不能为决策提供帮助,数据的真实性和质量才是制定正确决策的关键。
大数据在现实的生产与生活中有着大量的实际应用。例如,天气预报就是基于大数据而对未来天气作出的预测。这些数据可以是一年前的,也可以是几年、几十年甚至更长时间的数据积累。又如,在智能商业、工业 4.0、互联网服务、智慧金融等领域,大数据的运用使得这些领域发生了翻天覆地的变化和进步。
大数据所具有的海量数据的特质促进了计算机科学、信息科学、统计学等应用学科的飞速发展。与此同时,随着数据量的爆炸式增长,非结构化的数据和残缺的数据也随之增加,用传统的方式处理大数据会极大地损失数据中蕴含的价值。
当前,人工智能的发展集中体现在机器学习上。机器学习的两种重要方式 —— 监督学习和无监督学习 —— 均需要大数据的 “ 喂养 ”。监督学习是机器学习的有效手段之一。监督学习 过程中需要把有标注的样本 “ 喂 ” 给机器,而有标注的样本来自大数据,从这个意义来看,人工智能需要大数据。以深度学习为例,数据量越多,效果就越好。无监督学习则从海量数据 中学习统计模式来解决问题,同样离不开大数据。
那么,是否数据越多,是否有标 注的样本越多,效果就越好呢?有学者在图像的目标检测任务上进行了相关研究(参见图引 -4),得到的结论是:一方面,随着训练数据的扩展,任务性能呈对数增长,即使训练 图片规模达到 3 亿张,性能的上升 也没有出现停滞;而另一方面,对数增长也意味着当数据量达到一定程度后,模型性能的提升效果就不再显著。
当前人工智能发展的另一个重要体现是大规模知识工程技术。知识工程是以构建专家系统为核心内容的学科,旨在利用专家知识解决问题。进入互联网时代之后,大规模开放性应用需要大规模的简单知识表示。知识图谱就是这样的知识表示,其本质是一个大规模语义网络,包含实体、概念及其之间的各类语义关系。
知识图谱的诞生使得知识工程迈入了大数据时代。传统工程依赖专家进行知识获取所导致的瓶颈被突破了,前所未有的算力、算法和数据的 “ 汇聚 ”,使得大规模自动化知识获取成为可能。从互联网数十亿文本当中,利用自动抽取模型,可以自动获取数亿计的结构化知识。互联网时代的高质量 UGC(用户贡献内容),比如问答、论坛、维基等为自动化知识获取提供了大量优质的数据来源。与大数据共生的众包平台,使得我们可以更有效地利用闲散的人力资源。正是在这些机会的合力作用下,人类从小规模知识时代迈进了大规模知识时代。知识图谱有望引领知识工程的复兴。更多的知识表示形式会在大数据的赋能下,解决更多的实际问题(参见图引 -5,这是与一位足球明星有关的知识图谱)。
人工智能的第三次发展浪潮很大程度上是由大数据推动的,没有大数据的滋养,人工智能很难在当下取得突飞猛进的进步。当前人工智能的很多成功应用都发生在数据丰富的场景,如图像识别在准确率上的突破得益于大量普及的摄像头所采集的海量图像数据等。
2. 人工智能与算力
算力即计算能力。算力的显著增长,体现在计算机的数据存储容量和数据处理速度的快速提升(参见图引 -6、图 引 -7),均呈现出指数增长的趋势。我国的超级计算机 “ 神威 · 太湖之光 ” 的持续性能为 9.3 亿亿次 / 秒,峰值性能可以达到 12.5 亿亿次 / 秒。算力的快速增长,一方面是由于摩尔定律(计算机硬件每隔一段时间便会翻倍升级)持续发挥作用,使得单体计算元器件的计算性能在增长。另一方面,以云计算为代表的性能扩容等技术也在持续发展。云计算能够将大规模廉价机器组织成高性能计算集群,提供匹配甚至远超大型机的计算能力。
人工智能的飞速发展离不开强大的算力。在人工智能概念刚刚被提出的时候,由于其计算能力的受限,当时并不能完成大规模并行计算与处理,人工智能系统能力比较薄弱。但是随 着深度学习的流行,人工智能技术的发展对高性能算力提出了日益迫切的需求。深度学习主要以深度神经网络模型为学习模型,深度神经网络是从浅层神经网络发展而来的。深度学习模 型的训练是个典型的高维参数优化问题。深度神经网络模型具有多层结构,这种多层结构带来了参数的指数增长。以 BERT(Bidirectional Encoder Representation from Transformers)为代表的语言模型多达 3 亿参数,最新的世界纪录是 Nvidia 训练出包含 83 亿参数的语言模型(2019 年 8 月)。以 BERT 的 3 亿 参数的模型训练为例,研发团队共消耗了 16 块云 TPU(张量 处理单元)近 4 天时间才能训练完成,其中每块云 TPU 能提供 180 TFLOPs(1 TFLOPs 意味着每秒 1 万亿次的浮点运算能力)算力和 64GB 内存。
国家间的人工智能之争已经在很大程度上演变为算力之 争。华为公司推出的一系列 AI 计算芯片在一定程度上推动了我国人工智能发展的算力的提升。
3. 人工智能与算法
算法是计算机解决问题或者执行计算的指令序列。很多数学模型在具体运行时往往需要实现相应的算法,算法与模型已经成为人工智能发展的重要支撑。人工智能的相关算法类型众 多,涉及搜索、规划、演化、协同与优化等一系列任务。当下,人工智能领域的快速发展尤为明显地体现在一系列新颖算法和模型的发展,特别是以深度学习为代表的机器学习算法的快速发展。机器学习是一种从观测数据(样本)中寻找规律,并利用学习到的规律(模型)对未知或无法观测的数据进行预测的方法。随着数据量的急剧增加,从大数据中发现统计规律,进而利用这些统计规律解决实际问题变得日益普遍。
当前大多数机器学习的本质是统计学习,即通过历史标注数据来拟合构建学习模型。以经典的线性回归为例,线性回归旨在从样本习得一个合适的线性映射 f,使得对于输入变量 x,经过
后能够得到正确的输出变量 y。假设我们有房屋面积与价格之间的历史数据(比如表引 -1 所示,第一列表示 60 米 2 的房屋价格为 300 万,其他列以此类推)。这里的每一对房屋面积和价格数据(
)就是一个样本,所有样本的集合为(
),(
),…,(
)。显然我们关心的是根据房屋面积预测房屋价格。房屋面积
就是输入变量或者解释变量,房屋价格
是我们需要预测的变量,是输出变量,或称响应变量。从这些样本数据学习到的房价与房屋面积之间的关系,可以表示为一 个函数 f(每个输入产生确定的唯一的输出)。f 接收某个房屋面积作为输入,预测相应的价格作为输出。例如,对于表格中不存在的 85 平方米的房屋,通过 f 函数我们就可以预测其价格。
为了学习房屋面积与房屋价格之间的函数关系,一种常见的学习方法是最小二乘法。首先假定 f 是简单的线性函数形 式,也就是 f(x) = a + bx,其中 a,b 是参数。所谓确定 f 的函数形式,就是确定 a 和 b 两个参数的具体值。因此对 f 的学习,就转换为对 a 和 b 两个参数的学习问题。很显然,如果 f 是一 个好的函数,就应该尽可能与当前已经观测到的样本一致,也就是 f(60)应该尽可能接近 300 万的真实价格。将这一期望推广到所有已观测样本,就有了如下的误差函数:
直观的理解是希望求得的线性函数(红色的直线)所预测的价格与实际价格累计平方误差 最小。可以通过偏导数求得上述误差函数最小化时的参数 a 与 b。根据求得的参数 a 与 b,就可以完全确定函数 f,从而可以根据任意面积进行房价预测(参见图引 -8)。机器学习有着很多任务,上述线性回归只是最简单的一类。如果 f 是非线性函数,那么就是非线性回归问题。房价是一个连续数值,在有些任务中要预测的是一个离散量。例如,根据体温、血液指标等预测病人是否得了感冒(只 需要判断是否感冒这两种情况),此时的机器学习问题就变成了分类问题。此外,我们经常需要对数据进行聚类,比如将客户自动聚类,从而分为不同人群。除了这些具体的问题模型外,机器学习还涉及众多算法,完成不同的任务,比如 K 近邻分类算法、基于 “ 决策树 ” 的分类算法、基于 “ 支持向量机 ” 的 分类算法、K 均值聚类算法、基于 PCA 的降维算法、基于梯度下降和进化算法的参数学习算法(如线性回归中的参数最优化学习)等。
原文链接:https://www.51cto.com/article/635714.html