从经济学角度看人工智能 : “预测变得廉价时,会出现更多预测”

长江日报记者叶军

《AI极简经济学》阿杰伊·阿格拉沃尔 乔舒亚·甘斯 阿维·戈德法布 著 闾佳 译  湖南科技出版社

《AI极简经济学》的作者是三个经济学家,在加拿大多伦多创立有颠覆性创新实验室。起初,实验室对所有类型初创企业开放。但是2012年,他们经历了人工智能顿悟时刻:“当时我们观察到,采用最先进的机器学习技术、向颠覆性创新实验室提出申请的人工智能初创公司的数量,已经从涓涓细流变成一股激流。”

当下提到人工智能,常令人眼花缭乱,从iPhone的神经网络引擎、AlphaGo的围棋算法,到无人驾驶、深度学习,众多的概念让人如堕云里雾里……

经济学家看待人工智能,角度却有些与众不同。

预测正在变得廉价

三位经济学家是从最基础的价格着手,看待人工智能的。如果某样东西的价格下降,那么我们会更多地使用它——这就是简单经济学。比如19世纪获得等量照明,你的花销是如今的400倍。但现在照明如此普及,几乎到了你习焉不察的地方。三位作者发现,正在席卷全球的人工智能技术正在令什么东西变得廉价?

他们的观点是预测。

预测是什么?预测的拉丁语词源“praedicere”的意思是“事先知道”。 预测是根据已知信息,填补缺失信息的过程。预测无处不在,是人类智慧的基石。从出门拿不拿伞这种日常小事,到决定命运的大事都绕不过。 “哈利波特、白雪公主与麦克白三个人物有什么共同点吗?”“他们都被预言或者预测所驱动。”

在智能机器技术取得最新进展前,许多事几乎不可能做到,包括物体识别、翻译和药物研发。例如ImageNet挑战赛是一项高度曝光的年度赛事,比赛内容是让机器预测图像中物体的名称。比如辨别藏獒与伯恩山犬,或保险柜与密码锁的区别。哪怕是人类,犯错概率也在5%。2010年,最出色的预测机器也会有28%的犯错率,2012年,参赛者首次使用深度学习,错误率降至16%。2015年,一支参赛队伍首次超越人类。而到了2017年,38支队伍里的绝大多数表现都比人类好,而且最优秀的队伍犯错率还不到人类一半。

作者认为,目前这一代人工智能与科幻小说里的智能机器还相去甚远。但是预测这一生产资料越来越便宜,将对人类社会和未来产生深远影响。

“一旦预测变得廉价,就会出现更多的预测”。

学得来的和学不来的

为什么很多技术人员将机器学习称为“人工智能”,因为机器学习的输出(即预测)是智能的一个关键组成部分。

书中特别有趣的部分是看机器如何学习。人类就像教孩子一样,不断教会机器如何学习。

人类创造了机器,所以它和我们很相像。西蒙是一位博学家。除了诺贝尔奖之外,他还因为“对人工智能做出的贡献”而获得常被称为计算机界诺贝尔奖的图灵奖。1976年,他在图灵奖讲座上强调计算机“处理资源有限;在有限的时间段、有限的步骤内,它们只能执行数量有限的处理任务”。他认为,计算机就跟人类一样,会采取折中方案,使用户满意即可。

不过,机器学习的最新进展还是让过去利用统计学进行预测的方式发生彻底转变。

支撑近年来进步的技术基石叫“深度学习”,它依靠一种“反向传播”方式,采用与大脑极为类似的方式,通过例子来学习。许多问题已经从过去的算法问题转为预测问题。比如过去让机器认识猫,要看猫有什么特点,你需要输入大量猫的图片,而现在你只要输入猫和狗的图片,猫和四足物体间关联会强化,机器会发展出诸多联想,并自行学会区分猫和狗。而机器在棋类学习中,甚至输入两种下法,自行博弈。

人在预测时,常常不如机器。奥克兰运动家棒球队在最优秀的3名球员离开后,没有足够资金招募替补,于是采用一套统计系统,按数据安排和调配球员,以预测球员成绩。尽管预算有限,却在2002年世界大赛里一路领先对手。球探会这么评价球员“他女朋友长得丑,找个长得丑的女朋友意味着他没有信心。”以数据为驱动的预测,可以超越人类预测也就不足为奇。

机器甚至比人类法官作出更好的预测。美国有一项对美国法官保释决定的研究,被机器划分极端危险的1%的被告中,有62%会在保释期犯罪。而人类法官则会将其中近一半的“极端危险被告”释放。

不过,如果没有丰富数据的话,机器的预测就相当糟糕了。比如地震,或者总统大选。另外,它们最大的弱点是,有时会满怀信心给出错误答案。比如20世纪八十年代初,人们让机器学习国际象棋程序,机器上来就无条件放弃“后”,才下几步就输了。原来,这些接受特级大师棋局训练的机器,根本不知道大师们牺牲“后”往往是机智而具有决定性的一击。它们倒置因果,于是出现令人忍俊不禁的一幕。

如果少一点盲目自大,或者莫名恐慌,人类与机器学习的过程,其实是个教学相长的过程。作者提出:也许最好的预测是人类与机器共同合作完成的。

如何看待隐私,这是一个悖论

有朝一日人类老师会被机器学生挤出局吗?

这涉及到我们如何看隐私。因为机器学习途径来自于数据。如果限制对个人数据的收集是为了堵上泄漏隐私这个漏洞,那么,它也会带来一个新的漏洞:用户将无法从人工智能带来的更优质产品和更庞大财富中受益。这是一个悖论。

作者称:有一些数据是只有我们人类才独有的。比如机器所无法达到的敏锐感官,另一个是我们个人特殊的、微妙的嗜好与兴趣,第三个是我们不愿展露于公众间的。比如性的态度、对人事的负面评价等等。

另外,在当前,道德判断还未放入到机器学习中。以电车难题为例:假设你站在开关旁,能把电车从一条轨道切换到另一条轨道。你发现,电车此时所在的轨道上有5个人。你可以将它切换到另一条轨道,这条轨道上有1个人。你没有其他选择,也没有时间思考。你会怎么做?这个问题即便是对于很多人来说,也会感到困惑。

然而,对自动驾驶汽车来说,这种情况是有可能出现的。必须有人解决这一困境,并将恰当的反应编入汽车程序。这个问题无从回避。必须有人(最可能的是法律)决定谁生,、谁死。目前,人们并没有将道德选择编码到自动化机器当中,而是在循环中保留人的位置。

2012年,美国国防部出台一项规定,在战争中使用机器时时,让人类来决定是否发起攻击。

就算是特斯拉的自动驾驶仪(尽管它完全能够驾驶汽车)也要遵守法律规定:在任何时候,驾驶员都要把手放在方向盘上。

预测并不代表决定策,一个决策包括了预测、判断、行动等。但是预测的完善,会使得判断的价值提升。这会逼迫人类更加提升自己的认知,这未尝不是一件好事。

【编辑:叶军】

(作者:作者叶军编辑叶军)

评论一下
评论 0人参与,0条评论
还没有评论,快来抢沙发吧!
最热评论
最新评论
已有0人参与,点击查看更多精彩评论