7月9日,为期三天的2020世界人工智能大会在上海世博中心开幕。此届世界人工智能大会以“智联世界、共同家园”为主题,聚焦“AI技术趋势”、“AI赋能经济”以及“AI温暖家园”三大议题。
以“智联世界、共同家园”为主题的2020世界人工智能大会云端峰会,7月9日在上海世博中心开幕。
人们坚信人工智能会成为和工业革命一样重要的浪潮。但新硅谷机器人创业公司Robust.AI首席执行官兼创始人盖瑞·马库斯
(Gary Marcus)
与纽约大学柯朗数学科学研究所计算机科学教授、人工智能领域科学家欧内斯特·戴维斯
(Ernest Davis)
却对此保持着更为深层次的敏锐和思考。他们从认知科学中提炼出了11条对人工智能发展方面的启示,以通用人工智能为发展目标,给出了未来AI技术的一种发展方向。
AI现在面临着哪些挑战?未来会不会出现威胁人类的超级人工智能?AI会成为堪比工业革命的浪潮吗?当下的AI存在哪些风险?真的有可信的AI吗?理想的AI与现实的AI之间究竟存在哪些差距?如何构建人类和AI之间的信任?
在马库斯和戴维斯二人合著的《如何创造可信的AI》一书中,两位作者指出,关于人工智能的炒作总是甚嚣尘上,但要得到真正可信的AI,却远比想象的要复杂得多,超级智能的时代还远未到来。
马库斯和戴维斯表示:创造真正可信的AI需要赋予机器常识和深度理解,而不是简单地统计分析数据。AI真正的问题在于信任,常识才是深度理解的关键。他们坚信, AI能掀起波及整个世界的重大变革,但在AI取得真正的进步之前,许多基本假设也需要改变。
以下内容节选自盖瑞·马库斯与欧内斯特·戴维斯合著的《如何创造可信的AI》一书,已获得出版社授权刊发。
《如何创造可信的AI》,(美)盖瑞·马库斯、欧内斯特·戴维斯著,龙志勇译,湛庐文化丨浙江教育出版社,2020年5月
撰文丨[美]盖瑞·马库斯
[美]欧内斯特·戴维斯
摘编丨何安安
AI的发明可能是“人类文明史上最可怕的事件”?
20年之内,机器将拥有人类所具备的一切工作能力。
——AI先驱,赫伯特·西蒙,1965年
自从人工智能诞生之始,业界专家就保持着愿景有余、落地不足的传统。20世纪五六十年代,马文·明斯基
(Marvin Minsky)
、约翰·麦卡锡
(John McCarthy)
与赫伯特·西蒙
(Herbert Simon)
等先驱人物曾发自内心地笃信,AI的问题将在20世纪末之前被彻底解决。明斯基有句广为流传的名言:“一代人之内,人工智能的问题将在总体上得到解决。”50年之后,这些预言却未能实现,而新画的“大饼”却层出不穷。2002年,未来学家雷·库兹韦尔
(Ray Kurzweil)
公开断言AI将在2029年之前“超越人类本身的智慧”。2018年11月,OpenAI这家著名AI研究机构的联合创始人伊利亚·苏茨科弗
(Ilya Sutskever)
提出:“我们应严肃认真地考虑近期实现通用人工智能
(AGI)
的可能性。”
虽然从理论上讲,库兹韦尔和苏茨科弗的预言有望实现,但此事成真的可能性非常渺茫。我们距离具有人类智能灵活性的通用人工智能太过遥远,不是再走几小步就能到达的,相反,这个领域还需要大量的基础性进步。我们将阐明,继续复制行业过去几年间取得的成果是远远不够的,我们需要去做一些完全不同的事情。
电影《人工智能》剧照。
即便并不是每个人都像库兹韦尔和苏茨科弗那样积极乐观,但从医疗行业到无人驾驶汽车领域,各种野心勃勃的承诺依然随处可见。这些承诺通常会落空。举例来说,2012年,我们经常听到人们谈起“自动驾驶汽车将在不久的将来成为现实”。2016年,IBM宣称,在Jeopardy!智力问答节目中夺魁的AI系统沃森
(Watson)
将会“在医疗行业掀起一场革命”,并称沃森健康
(Watson Healthcare)
的“认知系统能理解、推理学习和互动”,并且“利用认知计算在近期取得的进步……我们能达到不敢想象的高度”。IBM的目标,是解决从药理学、放射学到癌症诊断与治疗中存在的诸多问题,利用沃森去读取医学文献,给出人类医生可能会遗漏的医疗建议。
与此同时,AI领域最卓越的研究人员之一杰弗里·欣顿
(Geoffrey Hinton)
说:“很明显,我们应该停止培养放射科医师。”2015年,Facebook启动了M计划。这是一个目标远大、覆盖范围广泛的聊天机器人项目。这个机器人要有能力应对你的每一种需求,既能帮你预订餐厅座位,又能帮你规划下一次度假旅行。但是,直至今日,上述目标还没有一件得到落实。没准儿有一天,自动驾驶汽车能真正保证安全并普及,聊天机器人真能实实在在地满足你的所有需求,拥有超级智能的机器人医生真能给你看病。但现在看来,所有这一切都是理想,而非现实。
无人驾驶汽车的确存在,但主要局限在高速公路环境中,还需要人类司机就位才能保证安全,原因是软件太不靠谱,不敢让人以性命相托。2017年,Waymo公司
(从谷歌分拆出来专门从事无人驾驶汽车工作达10年之久的公司)
首席执行官约翰·克拉夫茨克
(John Krafcik)
放出大话,说Waymo很快就能推出无须人类司机作为安全保障的无人驾驶汽车。一年之后,正如《连线》杂志
(Wired)
所言,嚣张气焰全无,人类司机还在。
没有人真的认为,无人驾驶汽车已经可以在“无人”状态下,完全凭借自身能力在城市之中或恶劣天气之下外出行驶。早期的乐观态度,也被现如今的冷静所取代。人们普遍认为,要达到真正的无人驾驶,尚需至少10年的发展,很可能10年还远远不够。同样,IBM的沃森向医疗方向的转型也冷却了下来。2017年,MD安德森癌症中心停止了与IBM在肿瘤学方面的合作。
据报道称,沃森给出的一些建议“不安全、不正确”。2016年,位于德国马堡的“罕见病和未确诊疾病中心”利用沃森开展的项目,不到两年就被叫停,因为“工作结果无法接受”。当医生将病人的胸痛症状告知沃森系统时,沃森并没有提出心脏病、心绞痛或主动脉撕裂等可能的诊断,而这些连一年级的医学生都能提出。沃森的问题被曝光后不久,Facebook的M计划也被叫停。此时距离项目启动的时间还不到3年。
电影《我,机器人》剧照。
虽然AI领域一直以来都保持着虎头蛇尾的习惯,但看好AI的呼声依然狂热到爆棚。谷歌前首席执行官艾里克·施密特
(Eric Schmidt)
曾信心满满地宣布,AI会解决气候变化、贫困、战争和癌症等诸多社会问题。X-Prize创始人彼得·戴曼迪斯
(Peter Diamandis)
在他的著作《富足》
(Abundance)
中也提出过类似的观点,认为强AI在成真之日“一定会如火箭般载着我们冲向富足之巅”。2018年初,谷歌首席执行官桑达尔·皮查伊
(Sundar Pichai)
宣称:“AI是人类正在从事的最重要的事业之一,其重要性超越电和火的应用。”不到一年之后,谷歌被迫在一份给投资者的报告中承认,“纳入或利用人工智能和机器学习的产品和服务,可能在伦理、技术、法律和其他方面带来新的挑战,或加剧现有的挑战”。
还有些人因AI的潜在危害而苦恼不已,而这些担忧与实际情况相去甚远。牛津大学哲学家尼克·博斯特洛姆
(Nick Bostrom)
提出了关于超级智能占领世界的话题,好像这个灾难不久就会发生似的。亨利·基辛格
(Henry Kissinger)
在《大西洋月刊》
(The Atlantic)
发表的文章中称,AI的危险可能极其巨大,“人类历史可能重蹈印加人的覆辙,面对AI,就像印加人面对无法理解的西班牙文化一样,甚至会对其产生崇拜和敬畏之心”。埃隆·马斯克
(Elon Musk)
曾提出警告,称推进AI向前发展的行为无异于“召唤恶魔”,为人类带来“比核武器更恐怖”的危险。已故的史蒂芬·霍金
(Stephen Hawking)
曾说过,AI的发明可能是“人类文明史上最可怕的事件”。
但是,他们所讨论的AI究竟是什么样的AI?回到现实之中,满眼看到的都是连门把手都打不开的机器人,“自动巡航”模式下的特斯拉三番五次追尾停在路边的车辆,仅2018年就发生过至少4次。这就好比是,生活在14世纪的人们不去操心当时最急需的卫生环境,却在为交通堵塞问题而杞人忧天。
人们为何总是过高地估计AI的实际能力?
人们之所以总是过高地估计AI的实际能力,一部分原因在于媒体的夸张宣传,将每一次小小的成绩描绘成天翻地覆的历史性突破。
电影《人工智能》剧照。
看看下面这两个关于所谓机器阅读技术大突破的文章标题。
A:《机器人超越人类阅读水平,令数百万人面临失业风险》
——《新闻周刊》
(Newsweek),2018年1月15日
B:《计算机的阅读能力正在赶超人类》
——《CNN财富》
(CNNMoney),2018年1月16日
第一个标题比第二个更加阴险,但两个标题都对一点点小进步进行了极大夸张。首先,此事根本没有机器人参与,而且研究过程中只从一个极其片面的角度对阅读能力进行了测试,与阅读理解的全面测试相距甚远。根本没有谁的工作会因此而受到威胁。实情是这样的:微软和阿里巴巴两家公司分别开展了“斯坦福问答数据库”
(SQuAD,the Stanford Question Answering Dataset)
项目,对计算机在阅读过程中一个覆盖面很窄的单一方面进行了针对性测试。
结果显示,针对该特定任务的阅读能力有微小进步,从之前的82.136%提高到了82.65%,也就是所谓的从之前不及人类的水平提高到了人类的水平。其中一家公司发布了一篇媒体新闻稿,将这点微不足道的成绩说成革命性的突破,并宣布“能阅读文件、倾听叙述并回答问题的AI”就此诞生。
现实远远没有这么性感。上述测试是被设计来搞研究的,并不能作为阅读理解水平的评判基准。测试中提到的每一个问题,都能从文章中生搬硬套地找到答案。说白了,这个测试只能评判划重点的能力,别无其他。至于阅读的真正挑战—推断出作者在字句之外所表达的意思,这些测试则根本连边都沾不上。
举例来说,假设我们给你一张纸,上面写着这样一段话:
苏菲和亚历山大两个孩子外出散步。他们都看到了一只狗和一棵树。亚历山大还看到了一只猫,并指给苏菲看。她跑去摸了摸小猫。
我们可以轻而易举地回答诸如“谁去散步”之类的问题,问题的答案“苏菲和亚历山大”是直接在文中标明的。但真正的阅读需要我们更进一步看到字句之外的意思。我们还应该能回答诸如“苏菲有没有看到猫”和“孩子们有没有被猫吓到”等问题,虽然这些问题的答案并没有直接摆在文字之中。如果你回答不了,就没办法理解接下去会发生的事情。斯坦福问答数据库并不包含此类问题,新的AI系统也没办法应对这类问题。为了进行对比,我们在撰写此段内容时,马库斯将这则故事在他4岁半的女儿克洛伊身上进行了测试。克洛伊不费吹灰之力就推断出了故事中的苏菲看见了猫。克洛伊还不到6岁的哥哥更棒,接着说如果那只狗其实是一只猫则会如何如何。这种能力,是现如今的AI完全无法企及的。
电影《我,机器人》剧照。
技术大鳄们每次发布这样的新闻稿,基本都是同一个套路。而众多媒体
(幸亏不是所有媒体)
都将一点点小进展描绘成意义非凡的革命壮举。举例来说,几年前,Facebook开展了一个基础的概念验证项目,针对AI系统阅读简单故事并回答相关问题的能力进行评估。结果一大堆热情高涨的新闻标题随之呼啸而来,《Facebook称已找到让机器人更富智慧的秘密》《能学习并回答问题的Facebook AI软件》《能阅读〈魔戒〉概要并回答问题的软件,可加强Facebook搜索能力》,诸如此类。
果真如此的话,确实属于重大突破。哪怕是能看明白《读者文摘》或托尔金的简明注释本,都算是个了不起的壮举,更别提看懂《魔戒》原著本身了。但无奈的是,真有能力完成这一壮举的AI根本不在我们现如今的视野之中。Facebook AI系统所阅读的文本概要实际上只有4行文字:比尔博回到洞穴。咕噜将魔戒留在了那里。比尔博拿到魔戒。比尔博回到夏尔郡。比尔博将魔戒留在了那里。佛罗多拿到魔戒。佛罗多前往末日山。佛罗多将魔戒留在那里。索伦魔王死去。佛罗多回到夏尔郡。比尔博前往灰港。全剧终。
但即使这样,这个AI系统竭尽全力能做到的只是直接回答段落中所体现的基本问题,例如“魔戒在哪里”“比尔博现在何处”“佛罗多现在何处”。千万别想问“佛罗多为什么放下魔戒”之类的问题。许多媒体人在进行技术报道时,尤其喜欢夸大其词。这样做的直接后果就是让公众误以为AI成真的曙光已经洒满大地。而实际上,我们还有很漫长的夜路要走。从今往后,若再听说某个成功的AI案例,建议读者提出以下6个问题:
1.抛开华而不实的文笔,此AI系统究竟实实在在地做到了哪些事?
2.此成果的通用性有多强?
(例如:所提到的阅读任务,是能测量阅读中的所有方面,还是只有其中的一小部分?)
3.有没有演示程序,能让我用自己的例子来实验一下?如果没有,请保持怀疑态度。
4.如果研究人员或媒体称此AI系统强于人类,那么具体指哪些人类,强出多少?
5.被报道的研究成果中所成功完成的具体任务,实际上将我们与真正的人工智能拉近了多少距离?
6.此系统的鲁棒性如何?如果使用其他数据集,在没有大规模重新训练的情况下,是否还能成功?
(例如:一个玩游戏的机器如果掌握了下国际象棋的技能,它是否也能玩《塞尔达传说》这类动作冒险游戏?用于识别动物的系统,是否能将之前从未见过的物种准确识别为动物?经过训练能在白天出行的无人驾驶汽车系统,是否也能在夜间或雪天出行,如果路上新增了一个地图中没有的绕行标志,系统是否知道如何应对?)
机器在许多方面依然无法和人类相提并论
诚然,最近几年来,AI的确以日新月异的速度变得更加令人震撼,甚至令人叹为观止。从下棋到语音识别再到人脸识别,AI都取得了长足的进步。我们特别欣赏的一家名叫Zipline的创业公司,利用了一些AI技术来引导无人机将血液送到非洲的患者身边。而像这样有价值的AI应用,在几年前还是无法实现的。
最近AI界的许多成功案例,大都得到了两个因素的驱动:第一,硬件的进步,通过让许多机器并行工作,更大的内存和更快的计算速度成为现实;第二,大数据,包含十亿字节、万亿字节乃至更多数据的巨大数据集,在几年前还不存在。比如ImageNet存有1400万张被标记图片,这在训练计算机视觉系统时发挥了至关重要的作用。
除此之外,还有维基百科以及共同构成万维网的海量文件。和数据同时出现的,还有用于数据处理的算法—“深度学习”。深度学习是一种极其强大的统计引擎
(statistical engine)
,我们将在第3章中对此进行具体解释和评价。从Deep Mind下围棋的Alpha Zero和下国际象棋的Alpha Zero,到谷歌最近推出的对话和语音合成系统谷歌Duplex,AI在近几年所取得的几乎每一项进展,其核心都是深度学习。
在这些案例中,大数据、深度学习再加上速度更快的硬件,便是AI的制胜之道。深度学习在许多实际应用领域也取得了极大的成功,如皮肤癌诊断、地震余震预测、信用卡欺诈检测等。同时,深度学习也融入了艺术和音乐领域,以及大量的商业应用之中,从语音识别到给照片打标签,再到资讯信息流的排序整理等。我们可以利用深度学习去识别植物,自动增强照片中的天空,甚至还能将黑白照片转换成彩色。深度学习取得了令人瞩目的成就,而AI也随之成了一个巨大的产业。谷歌和Facebook上演了史诗级的人才大战,为博士生开出高薪。
2018年,以深度学习为主题的最重要的一场科学大会,全部门票在12分钟之内被抢购一空。虽然我们一直认为,拥有人类水平灵活性的AI比许多人想象的要更难以实现,但近些年取得的长足进展也不容否认。大众对于AI的兴奋并非偶然。
各个国家也不甘落后。法国、俄罗斯、加拿大和中国等国家在AI领域都做出了重大战略部署。麦肯锡全球协会认为,AI对于经济的整体影响可达13万亿美元,其历史意义完全可以与18世纪的蒸汽机和21世纪初的信息技术相媲美。
然而,以上种种并不能确保我们走在正确的道路上。
即使数据越来越充裕,计算机速度越来越快,投资数额越来越大,我们还是要认清一个现实:当下的繁荣局面背后,缺少了某些本质上的东西。就算揽尽所有这些进步,机器在许多方面依然无法和人类相提并论。
以阅读为例。当你读到或听到一个新句子时,你的大脑会在不到一秒钟的时间内进行两种类型的分析:第一,句法分析,将句子拆解成一个个名词和动词,领会单个词汇的意义和整个句子的意义;第二,将这句话与你所掌握的关于世界的知识相联系,把这些通过语法组织在一起的零件与你所了解的所有实体以及你脑海中的所有思想整合为一体。如果这句话属于电影中的一段对话,你就会根据这句话对你所理解的该角色的意图和展望进行更新。此人想要做什么?他说的是实情还是谎言?这句话和之前发生的情节有着怎样的关系?这样一句话会对他人构成怎样的影响?
举例来说,当数千名奴隶一个接一个地冒着被处决的危险站起来高呼“我是斯巴达克斯”时,我们立刻就能知道,除了斯巴达克斯本人之外,其他所有人都在说谎,而眼前的一幕又是那么动人、那么深刻,当前的AI项目根本达不到这样的理解水平。据我们所知,目前的AI水平甚至连朝这个理解水平发展的动力都不具备。AI的确取得了大幅进展,但物体识别这类已经被解决了的问题,与理解意义的能力有着天壤之别。
电影《我,机器人》剧照。
这在现实世界中事关重大。我们如今所用的社交媒体平台背后的AI项目,会向用户发送那些为了获得点击率而胡编乱造的故事,从而为虚假新闻推波助澜。因为它们无法理解新闻的内容,无法判断其中的讲述是真是假。
就连貌似平淡无奇的开车这件事,也比我们以为的要复杂得多。开车时,我们所做的95%的事情都是照章行事,很容易由机器来复制,但如果一位滑板少年突然冲到你的车前,你的正常反应和行为是目前的机器无法可靠完成的:根据全新的、预期之外的事件进行推理和行动,不仅仅依据由先前经验所组成的巨大数据库来采取行动,还要依据强大而富有灵活性地对世界的理解来采取行动。而且我们不能每次看到没见过的东西就踩刹车,否则路上的一堆树叶就会造成刹车和追尾。
目前还没有值得信赖的达到真正无人驾驶水平的汽车。可能消费者能买到的最接近于无人驾驶水平的汽车,就是拥有自动巡航功能的特斯拉,但特斯拉也需要人类司机在驾驶过程中全程聚精会神。在天气状况良好的高速公路上,特斯拉的系统还是比较可靠的,但它在人流车辆密集的市区就没那么可靠了。在下着雨的曼哈顿或孟买的街道上,我们宁愿将自己的性命交托给随便哪个人类司机,也不愿信任无人驾驶汽车。此项技术尚未成熟。正如丰田自动驾驶研发副总裁所言:“在波士顿的天气和交通状况下,搭无人驾驶汽车从剑桥到洛根机场,这样的事情可能我这辈子都无法亲身经历了。”
同样,说到电影情节或是报刊文章的中心思想,我们宁愿相信初中生的理解,也不敢相信AI系统的判断。就算我们再不喜欢给宝宝换尿布,也不敢想象,如今正在开发中的机器人能帮我们做这件事并且足够可靠。
理想与现实之间,存在着一个被称为AI鸿沟的大坑
构建有能力对世界进行推理的系统,有能力对周边世界形成深刻理解的系统,才是朝向值得我们信任的AI系统前进的正确方向。
如何为机器赋予对世界产生更深刻理解的能力。业界若想进步,这是个必须解决的问题。没有更加深刻的理解能力,我们永远也无法获得真正值得信任的AI。用技术行话来说,我们可能会陷入局部最大值,这种方法比已经尝试过的任何类似的方法都要好,但是没有好到可以将我们带到想去的地方。
电影《机械姬》剧照。
现在,理想与现实之间,存在着一个被称为AI鸿沟
(The AI Chasm)
的大坑。追根溯源,此大坑可一分为三。其中每一个都需要我们坦诚面对。
第一个坑,我们称之为“轻信坑”。人类在进化过程中,并没有发展出在人类和机器之间进行区分的辨别能力,这就让我们变得特别容易被愚弄。我们之所以认为计算机可以拥有智慧,是因为人类的整个进化过程都是与人为伴,而人类本身的行为是以思想、信仰和欲望等抽象概念为基础的。从表面看来,机器的行为常常与人类行为有相似之处,于是我们会不假思索地认为机器也拥有和人类一样的某种思维机制,而事实上,机器并不具备这样的能力。我们总是控制不住自己,从认知的角度去看待机器
(“这台计算机认为我把文件删除了”)
,根本不在意机器实际遵从的规则是多么的简单通透。但是,某些完全适合用在人类身上的推论,放到AI身上就会大错特错。为向社会心理学表达敬意,我们参考其中一条中心原则的称谓,将此现象称为“基本超归因错误”。
第二个坑,我们称之为“虚幻进步坑”:误以为AI解决了简单问题,就相当于在难题上取得了进步。IBM对沃森的大肆吹捧,就属于此类。沃森在Jeopardy!竞技节目中获胜,被认为是机器在语言理解方面走出了一大步,而实际上并非如此。
第三个坑,就是我们所称的“鲁棒坑”。在业界,我们时常目睹这样的现象:每当人们找到了在某些时候能发挥作用的AI解决方案,他们就会假定,只要再稍加努力,再多一点数据,此系统就能在所有的时刻发挥作用。而事实并不见得如此。
若想跨越“AI鸿沟”这个大坑向前走,我们需要做到三件事:搞清楚AI技术的利害关系;想明白当前的系统为什么解决不了问题;找到新策略。
工作机会、人身安全、社会结构,这些都与AI的发展息息相关。由此可见,老百姓和政府官员都迫切需要紧跟AI行业的最新进展,我们所有人都迫切需要了解怎样用批判的眼光去审视AI。专业人士都知道,用统计学数据去糊弄普罗大众是再简单不过的事情。同样,我们也要具备将AI宣传与AI实情区分开的能力,搞清楚目前的AI能做到哪些事情,不能做到哪些事情。
关键在于,AI并非魔法,而是一套工程技术和算法,其中每一种技术和算法都存在自身的强项和弱点,适用于解决某些问题,但不能用于解决其他问题。我们写作此书的主要原因之一,就是因为如今铺天盖地的AI相关报道,都让人感觉如同白日做梦,单纯以人们对AI凭空幻想出来的期待和信心为依据,却与当下的实际技术能力没有半点关联。关于实现通用人工智能的难度有多大这个现实问题,在很大程度上来看,从公众围绕AI展开的讨论中根本找不到一点点理解的蛛丝马迹。
还是要明确一点:虽然澄清上述所有问题,需要拿出批判的态度来,但我们对AI全无半点憎恶,而是心怀热爱。我们的整个职业生涯都沉浸其中,真心希望看到AI能以最快的速度向前发展。我们不希望AI从世界上消失,我们希望见证AI的成长,而且希望AI能突飞猛进地成长,这样人们才能实实在在地依靠AI来解决问题。
电影《我,机器人》剧照。
关于AI的现状,我们要道出一些逆耳忠言。但我们的批评意见是出于一片苦心,希望AI能往好的方向发展,而不是呼吁人们放弃对AI的追求。简而言之,我们坚信,AI能掀起波及整个世界的重大变革,但在AI取得真正的进步之前,许多基本假设也需要改变。《如何创造可信的AI》并不是要唱衰整个行业
(虽然一些人可能会从这个角度加以理解)
,而是对停滞不前的原因进行诊断,并为我们怎样才能做得更好给出处方。
我们认为,AI前行的最佳方向,是要在人类心智的内在结构中去寻找线索。真正拥有智慧的机器,不必是人类的完美复制品,但任何一个用坦诚眼光审视AI的人都会认为,AI依然有许多需要向人类学习的地方,尤其要向小孩子学习。小孩子在许多方面都远远将机器甩在后面,因为小孩子天生就有吸收并理解新概念的能力。专业人士总是长篇大论地讲述计算机在某方面拥有“超人类”能力,但人类的大脑依然在5个基本方面令计算机望尘莫及:我们能理解语言,我们能理解周遭世界,我们能灵活适应新环境,我们能快速学习新事物
(即使没有大量数据)
,而且我们还能在不完整甚至自相矛盾的信息面前进行推理。在所有这些方面,目前的AI系统都还只是站在起跑线上原地踏步。我们还将指出,目前对于制造“白板”机器的痴迷是一个严重的错误。这些机器从零开始学习一切,完全依靠数据而非知识驱动。
如果我们希望机器能做到同样的事情,去推理、去理解语言、去理解周遭世界、去有效学习、以与人类相媲美的灵活性去适应新环境,我们就首先需要搞明白人类是如何做到这些的,搞明白我们人类的大脑究竟想要做什么
(提示:不是深度学习擅长的那种对相关性的搜寻)
。也许只有这样,面对挑战迎头直上,我们才能获得AI迫切需要的重启契机,打造出深度、可靠、值得信任的AI系统。
用不了多久,AI就会像电力一样普及到千家万户。此时此刻,没有什么比修正AI的前行方向更为紧迫的任务了。