【运筹OR帷幄】大话“人工智能、数据科学、机器学习”–综述

144次阅读

作者 留德华叫兽 美国 Clemson 应用数学 | 运筹学硕士、博士候选人,德国海德堡大学数学 | 组合优化博士,博士研究方向为离散优化在计算机视觉的交叉应用。读博期间于意大利博洛尼亚大学和法国巴黎综合理工访问 10 个月,意大利 IBM Cplex 实习半年。学术不精,转而致力于科普,读博期间创办 运筹 OR 帷幄(运筹学 | 数据科学 | 人工智能社区)以及 DIY 飞跃计划(全球 1000+ 海外硕博留学咨询师)俩个知乎机构号 | 微信公众号 | 头条号 | 社区,并邀请学界 | 业界大佬联合举办了 10+ 知乎 Live。现于德国某汽车集团无人驾驶部门机器学习组,担任计算机视觉研发工程师。本文于 2017 年 4 月首发于 @运筹 OR 帷幄 知乎专栏和公众号,并收录于知乎日报文章:『AI 领域的名词好难懂,这篇文章可以让你全面了解』。

编者按:写作此文当年花了我 10 小时,或许很多内容现在看来显得有些“稚嫩”,但决定予以保留,也算是我对读博那段青春的追忆吧:)

本文包含 4 个带图实例,目的是从宏观上剖析和理解这三个术语,适合刚入门人工智能(缩写 AI)、数据科学、机器学习(缩写 人数机)的爱好者,完整阅读可能需要 20 分钟。由于我的研究领域仅限于机器学习和计算机视觉,浅谈其他领域的时候还劳驾该领域的大牛拍砖。

前言:学科交叉乃大势所趋,新兴学科应市场需求孕育而生。人数机,便产生在这样的时代背景下。什么,你所在的学校至今还没开设相关专业?不必惊慌,老牌资本主义国家德国同样如此。但是,学好微积分、线代、优化、统计、编程,你和人数机可能只是俩三堂专业课的距离。本文旨在从宏观的视角剖析人数机,具体到某个学科或问题,请参见文中给出的链接。

机器学习、深度学习、增强学习,这些“学习”都是什么鬼?3 中的回答或许会让你大跌眼镜。

本文提纲:

1,人数机的概念 2,AI 的应用领域 3,AI 的解法-机器学习 4,机器学习底层的模型-运筹、统计 5,AI 的算法 6,强 AI vs 弱 AI 7,AI 学术界、工业界的全球排名

——————————————————————–

书归正传,我们一起 逐点击破人数机这个大泡泡 ,力求以最通俗易懂的语言 还原他们高大上外表下弱小的真面目(数学模型 + 算法)。

————————————————————————

首先我把最近火起来的,关于人数机最热门的几个术语都列出来,因为不知道它们的话,你可能已经 OUT 了。

人工智能、数据科学、大数据、机器学习、神经网络、深度学习、计算机视觉、自然语言处理、增强学习、(无)监督学习、数据挖掘、文本挖掘、模式识别、虚拟现实、增强现实、GPU 计算、并行计算、物联网、工业 4.0、智能供应链、智能 xx、商业智能、xx 智能、图像处理、自动驾驶、统计推断、(凸)优化、K-means 算法、Ford-Fulkerson 算法等等。(欢迎评论区补充“火”的术语)

下文我尝试把这些术语按照 概念、应用、模型、方法、算法 来进行分类。

1,概念 – 人工智能(Artificial Intelligence)、数据科学(Data Science)、大数据(Big Data)

这三个术语最大,放在第一个说 – 他们属于概念。

简单地说,计算机能像人一样思考并自动处理任务,就可以称为 人工智能,即教计算机完成人想完成的复杂的或具有高度重复性的任务。(这里需要注意计算机能理解的只是数据,包括向量和矩阵)

从这个概念出发,那么计算机从发明至今,可以说就顶着“人工智能”的帽子了。比如我们学习任何一门计算语言的循环语句,就很好地服务于这个宗旨。你写一个 for i=1..100,就等于让计算机给你重复做了 100 遍活。还嫌不够多?把 100 改成 1 个亿吧。让(“教”)电脑给你干活,这就是人工智能

由于人工智能“教”计算机处理的,通常都是很大的数据。例如图像处理,对于计算机来说,一张 1000*1000 的图片在它看来只是 100 万个像素(灰度图是 100 万个数字,RGB 图是 100 万 * 3 的一个向量)。

因此数据科学、大数据也属于人工智能概念的范畴,它们和人工智能一样,仅仅是被炒起来的“术语”。而理解上面三段话,你就拥有了和小白吹牛的资本。

这些行业到底有多热,看看薪资就能略知一二。

再举个比循环语句稍稍复杂点的例子:预测(Forecasting、Prediction)。

给你一堆点(x_i,y_i), 人眼一看,根据数据以往的趋势,下一个点 x_n 的 y 坐标 –y_n 应该出现在箭头所指的地方。但是如果有 1000 堆类似数据等你预测呢?你需要 1000 个人来描这个点么?NO,你只需要教会计算机如何根据 x_n 预测出 y_n 的值。– 很简单,学过统计的应该都知道线性回归(Linear Regression),用最小二乘法根据以往的数据(x_i,y_i)算出线性系数 b_0 和 b_1,那么预测函数 y =b_0+b_1*x,电脑就可以根据这个公式来预测后面所有的 y 值。当然有进阶版的分段线性回归(piecewise linear fitting),欢迎听下回分解。

【运筹OR帷幄】大话“人工智能、数据科学、机器学习”–综述插图

2,应用 – 模式识别(Pattern Recognition)、计算机视觉(Computer Vision)、自然语言处理(Natural Language Processing)、数据挖掘(Data Mining)、物联网(Intenet of Things)、商业智能(Business Inteligence)、自动驾驶(Auto Driving)、云计算(Cloud Computing)、虚拟增强现实(Virtual Augmented Reality)等

这些都属于人工智能和大数据的 应用 场景。

模式识别:把一堆杂乱无章的数据或像素(图像)里深藏的“模式”或规则用计算机自动识别出来。

计算机视觉:“教”计算机像人一样理解图像或视频,并作出解释(例如分割、追踪、分类等)。

自然语言处理 - 语音识别:同样的,计算机看待人说的话只是一段段音频信号(signal),或者更底层些,只是一个 x 坐标为时间 t 的二维数据。如何把电信号翻译成文字(text),需要人来“教”它。

数据挖掘:从一大堆数据里挖掘出你想要的有用的信息。怎么样,是不是和模式识别有点异曲同工之妙?不过其主要数据对象是数据库(Database),类似的还有文本挖掘(text mining)。

物联网:把所有东西(例如家电)都联网,并实时保持数据的连通,然后计算机处理这些数据。例如根据主人的生活习性自动开关暖气。

商业智能:人工智能应用在商业大数据领域。例如银行欺诈性交易的监测。

自动驾驶:顾名思义,内置在汽车甚至设置在云端的计算机自动给你开车。利用的是计算机处理汽车上的摄像头实时产生的图片信息,以及雷达产生的信号。

云计算:把计算任务传送到“云端”,得出结果后再传送回来。云端可能是一个大的计算机集群(Cluster),难点在于如何协同 CPU 和 GPU。

虚拟、增强现实(VR、AR):VR 眼镜应该都体验过吧?未来的趋势,3D 电影演唱会等,足不出户体验现场感。Pokemon Go 是 AR 最好的例子,使虚拟和现实混合在一起。俩者的核心技术都在计算机视觉里,包括校准、3D 重建、识别、追踪等等。

通过以上九个术语的翻译,相信妈妈再也不用担心我被“概念”的炒作蒙蔽双眼了。

再举个例子:模式识别(Pattern Recognition)里的图像分割(Image Segmentation)。

给你一张图片,你自然知道描出图里所有物体的轮廓,把该图分割成了几块,该图的“模式”就被识别出来了。但是给你 100,1000 张图呢?你还有耐心一张张用手描轮廓?这时候你需要教计算机如何画这个轮廓,并且不仅仅限于几张图,这个模型或算法必须适用于绝大多数的图片。这就是模式识别和图像分割。

【运筹OR帷幄】大话“人工智能、数据科学、机器学习”–综述插图1

3,方法 – 机器学习(Machine Learning)

前面讨论了概念和应用,那么用什么方法来实现 2 中的应用呢?机器学习便是最有力的方法之一。把机器学习单独放在方法里,是为了体现其重要性。虽然它是一门建立在统计和优化上的新兴学科,但是在人工智能、数据科学等领域,它绝对是核心课程中的核心。

机器学习,顾名思义,教机器如何“学习”,或让机器自己“学习”。因此从字面上看就天然的属于人工智能范畴。“学习”这个看似高深的术语,在 1 线性回归的例子里,仅仅指求解(学习)b0, b1 这俩个系数。任何其他炒得火热的“xx 学习”,也只是求解一些参数-说得都很好听,仅此而已。

对于统计和运筹学这俩门基础学科来说,机器学习又是应用(见下面四类问题),因为它大量地用到了统计的模型如马尔可夫随机场(Markov Random Field–MRF),和其他学科的模型,如偏微分方程(变分法等),最后通常转化成一个能量函数最小化的优化问题。

机器学习的核心在于建模和算法,学习得到的参数只是一个结果(见 5)。

机器学习里最重要的四类问题(按学习的结果分类):

预测(Prediction)– 可以用如回归(Regression)等模型。

聚类(Clustering)– 如 K -means 方法。

分类(Classification)– 如支持向量机法(Support Vector Machine, SVM)。

降维(Dimensional reduction)– 如主成份分析法(Principal component analysis (PCA)– 纯矩阵运算)。

前三个从字面意思就好理解,那么为什么要降维呢?因为通常情况下,一个自变量 x 就是一个维度,机器学习中动不动就几百万维,运算复杂度非常高。但是几百万维度里,可能其中几百维就包含了 95% 的信息。因此为了运算效率,舍弃 5% 的信息,我们需要从几百万维中找出这包含 95% 信息的维度。这就是降维问题。

机器学习按学习方法的分类:

监督学习(Supervised Learning,如深度学习),

无监督学习(Un-supervised Learning,如聚类),

半监督学习(Semi-supervised Learning),

强化学习(Reinforcement Learning)。

这里不从晦涩的定义上深入展开,举俩个例子或许效果更好。

邮件分类的例子:

邮件管理器中的垃圾邮件和非垃圾邮件的分类,就是一个典型的机器学习的分类问题。这是一个有监督的学习问题(Supervised Learning),什么叫有监督呢?计算机是在你的监督(标记)下进行学习的。简单地说,新来一封邮件,你把他标记为垃圾邮件,计算机就学习该邮件里有什么内容才使得你标记为“垃圾”;相反,你标记为正常邮件,计算机也学习其中的内容和垃圾邮件有何不同你才把它标记为“正常”。可以把这俩个分类简单的看成 "0" 和“1”的分类,即二分问题(Binary Classification)。并且,随着你标记越来越多,计算机学习到的规律也越来越多,新出现一封邮件标记的正确率也会越来越高。

当然分类可不止用在判别垃圾邮件,其他应用例如银行欺诈交易的判别(商业智能范畴),计算机视觉里给计算机一张图片,分类为狗还是猫(著名的 ImagNet,可是把图片分成了 2 万多类)。等等。

前面讲了监督学习,无监督学习即在没有人工标记的情况下,计算机进行预测、分类等工作。

再来一个例子 – 聚类(Clustering)– 无监督的学习

事先没有对图中的点进行标记类别,左图在计算机看来,仅仅是 12 个点(x,y 坐标),但是人眼可以判别它大致可以分为三类(这时,123,321,132 代表的都是相同的聚类,顺序没有关系)。如何教计算机把数据归类呢?这就是聚类问题。其中最经典的算法叫 K -means。

【运筹OR帷幄】大话“人工智能、数据科学、机器学习”–综述插图2

半监督介于俩者之间,强化学习牵扯到更深的运筹、随机过程、博弈论基础,这里暂时不展开。

机器学习作为新创的学科或方法,被广泛地应用于人工智能和数据科学等问题的求解。按照行业的说法,神经网络、深度学习、增强学习等模型都属于机器学习的范畴。

本节最后出一个思考题,1 中的线性回归属于监督还是无监督学习呢?

4,模型 – 运筹学(Operations Research(O.R.))、凸优化(Convex Optimization)、统计分析(Statistical Analysis)、神经网络(Neural Network)、深度学习(Deep Learning)

把它们归到一类,因为他们都是一种解决实际问题的模型。例如解决图像分割问题,你可以用统计的模型(如马尔可夫随机场),也可以用神经网络模型,当然也可以用深度学习,即 卷积神经网络模型(Convolutional Neural Networks)

统计和运筹作为有深厚渊源的学科,这俩个名词本身就能成为一个专业,其下又有无数的分支和方向。他们本身研究的对象就是大数据,因此和人工智能、数据科学有着天然的渊源。最近因为人数机的兴起,统计、凸优化模型也再度热了起来(特别是概率图模型)。相信他们和人工智能会起到相辅相成、互相促进的效果。

神经网络(监督学习门下,需要有标签的数据)和深度学习,相比前俩个庞大学科,充其量只能算一个基于图论(Graph Theory)的模型。神经网络也是由来已久,刚开始的全连接神经网络(Fully Connected Neural Network)以及多层神经网络,都是传统神经网络,由于参数多计算 (学习这些参数) 的复杂度很高,因此实用性不强没有得到足够的重视。直到近些年卷积神经网络的横空出世,深度神经网络(Deep Neural Network)已基本秒杀其他一切传统方法,缺点是需要有标签的庞大的数据集以及训练时间过长(计算机资源)。

当然人工智能,特别是深度学习有过热的趋势,导致炒概念这样不良风气的产生,甚至有偷换概念之嫌。下面链接乃计算机视觉领军人物之一加州大学洛杉矶分校 UCLA 统计学和计算机科学教授 Song-Chun Zhu 的访谈录,给深度学习泼一点冷水。
初探计算机视觉的三个源头、兼谈人工智能|正本清源

由于 O.R. 出身,把运筹放在最后一点 – 楼主必须 正本清源 O.R. 的在人工智能中扮演的重要角色。

在机器学习里我已提到,这里再强调一遍,几乎所有的人工智能问题最后会归结为求解一个优化问题(Optimization Problem)。而 研究如何求解优化问题的学科,正是运筹学。

运筹学的作用,不仅限于求解其他模型(如统计)最后产生的优化问题,也可以作为模型本身(优化模型)来解决人工智能问题。

优化模型包含目标函数和约束条件。优化问题就是求解 满足约束条件的情况下使得目标函数最优 的解。敬请读者们关注我的运筹专栏,听我下回仔细分解。这里只提一点,大家所熟知的支持向量机,其实完全可以看作运筹中的二次规划(Quadratic Programming)问题。

[运筹帷幄]大数据和人工智能时代下的运筹学 – 知乎专栏

最后唠叨一句楼主的科研方向,就是用运筹学中的混合整数规划(Mixed Integer Nonlinear Programming)模型建模,解决人工智能中的应用,如图像分割。

由于版面有限,不再具体展开。

关于运筹学你所要知道的几乎一切,都在下面:

【运筹 OR 帷幄】人工智能的“引擎”– 运筹学,一门建模、优化、决策的科学

5,算法 –K-means,Ford-Fulkerson

做过人工智能实际 / 科研项目的人知道,解决一个实际问题就像小时候解应用题,从假设未知数开始(已是模型的范畴),一般步骤便是数学建模 - 设计算法 - 编程实现,并以此反复推敲。因此为了文章的完整性,加上算法这一节。

K-means 在 3 的聚类问题中已提到,这里重点讲讲最大流以及算法和模型之间的关系。

Ford-Fulkerson 算法属于运筹学或图论 - 网络流问题(Network Flow Problem)中一个非常经典的问题 - 最大流问题(Max Flow Problem)的算法,它在图像处理特别是图像分割中,有着极为重要的应用。

如图:把一张 3*3 像素的图像看作 3 * 3 个点的图(图论术语里的图),并且把上下左右相邻的点用边连接起来,组成 edge(图论里的边)。这么一来,图像分割问题就完美地转换成了一个基于图论(或者 network flow)的优化问题。如下图,九个像素的图被最大流算法用绿线分割成了俩个部分(segment),绿线即为最小分割(min cut),这里 s 点和 t 点是为了构建网络流模型额外增加的俩个点(terminal node)。

【运筹OR帷幄】大话“人工智能、数据科学、机器学习”–综述插图3

这里强调下数学建模的重要性,为何要数学建模呢?的确很多 naive 的算法完全不需要建立在数学模型之上,比如 clustering 里面经典的 EM 算法,是一个 iterative method,基本一眼就能看出算法的思路然后编程实现。那么基于数学模型上的算法有何妙处呢?答案是一个好的数学模型,往往是被研究了几十甚至几百年的学科,比如图论,很多性质都已经被研究得很透彻可以直接使用。回到上面的例子,我建立的这个网络流的模型,是一个被研究了很久的模型,因此我可以直接使用其很多已知的好定理或算法来服务我的问题,比如这里基于里 max flow 的 Ford-Fulkerson 算法,如果能在其基础上做改进,等于站在巨人的肩膀。因此这就是数学建模的重要之处。

往往同一个问题,从不同的角度去看可以有千百种数学建模方法,而不同的数学模型差别往往巨大。而数学建模又是解决一个实际问题的第一步,在这基础上才考虑算法和数据结构设计。因此,数学模型和背后的数学基础在我看来是重中之重,也是我推荐学习的课程的核心。当然了,计算机系出生的朋友,数学这个层面学习得不是很深,可以偏向于算法的设计和实现,它们也是重要的。

6,强人工智能(Strong AI 或 Artificial General Intelligence)vs 弱人工智能(Applied AI,narrow AI,weak AI)

上面唠叨了那么多,说来说去都是建立在以二进制为机理的图灵计算机上的“弱人工智能”,即计算机需要人去“教”它怎么做。而人工智能、神经网络的最终目的,是模仿人脑的机理和组成(脑神经元、神经网络),让计算机能像人一样具有思维、自主意识,自行学习和决策,称为“强人工智能”。

这里不得不提到母校德国 海德堡大学 物理系和英国曼彻斯特大学牵头的欧盟“人脑计划”,其最终目的就是打破计算机的二进制机理,模仿人脑神经元 (Neuron) 放电 (spark) 的随机性,打造出一台能像人脑一样“思考”的计算机。从此计算机不再二进制(0 或 1),而是可以取 [0,1] 间的随机值。另外工业界如 IBM 也在打造此类计算机。

此机一旦面世,以往一切惯例将被打破,“强人工智能”的新纪元或许会随之到来。

7,人工智能学术界、工业界全球排名

按照本文作者的尿性,最后不出意外会给个排名。今天也不例外,排名不分先后。

学术界:人工智能等新兴学科通常设置在计算机系,此处可参考 CS 排名

美国凭借教授数量一如既往地排在前头:CMU、斯坦福、MIT、UC 伯克利、哈佛、普林斯顿、康奈尔、UIUC 等等

英国伦敦也是 AI 重地:牛津、剑桥、帝国理工再加爱丁堡,还有 UCL

加拿大可谓深度学习孵化地,DL 三杰都和枫叶国国有渊源:多伦多、滑铁卢、蒙特利尔、麦克吉尔大学、英属哥伦比亚大学 UBC

欧洲因教职稀少排名自然弱,瑞士俩校拔得头筹,ETH、EPFL,海德堡 HCI 五教授之阵容理应占得一席 – 哦,原来三个隶属物理系。

日本东大山河日下,中国清华异军突起,姚班功不可没。

工业界:凭借着财大气粗吸引人才,以及计算能力和数据量的优势,工业界在 AI 领域或许已经赶超学术界

美国自然是全球 AI 中心(硅谷、西雅图、波士顿、纽约):Google 刚请来了斯坦福李飞飞(sabbatical)以及多大的 Geoffrey Hinton,Facebook 有 NYU 的 Yann LeCun, 微软、IBM 研究院早已名声在外,Amazon 云计算一家独大,还有 Uber、Airbnb、LinkedIn 等新贵互联网公司的助力。

英国伦敦:DeepMind 被 Google 收购,Google、微软等在伦敦都设有研究院。

欧洲:IBM、Google 在苏黎世和慕尼黑都有研究院,扩招中;amazon 在卢森堡有研究院;德国传统公司,如拜耳、博世、西门子等纷纷发力 AI 建立研究院,宝马奔驰奥迪等车场也投注自动驾驶。最后说说海德堡,SAP 总部所在地,还有 NEC、ABB 等欧洲研究院。

加拿大:加拿大政府在多伦多刚成立人工智能研究院-Vector Institute,G Hinton 任首席科学顾问,Google 在蒙特利尔准备成立新研究院,可见 Yoshua Bengio 领导的深度学习研究院名声在外。

中国:北有科技之都北京,得天独厚的优势,微软亚洲研究院培养起了中国一大批 AI 大佬;百度、京东以及地平线机器人、滴滴等一大批互联网新贵开始崭露头角。南有深圳,华为、腾讯、大疆、顺丰等也毫不示弱。

到此,相信读者们可以更有自信地吹“人工智能、数据科学、机器学习”的牛逼了。

原文链接:https://www.bilibili.com/read/cv8210026/

正文完
 
不知道
版权声明:本站原创文章,由 不知道 2023-08-29发表,共计8543字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布,如无来源则为原创,转载请注明出处。