智能世界主导权的迁移:从人类社会到万物智能 / 杨静
进入2018年,一系列重大事件冲击着人类固有的认知。中美贸易战围绕中兴通讯展开对未来数字世界主导权的争夺,谷歌和微软相继实现了量子霸权,波士顿动力的机器狗继360度后空翻之后学会了跑步和上楼,7纳米GPU芯片面世。这一系列标志性事件正表明智能世界主导权的迁移将成为世界发展的最大变数。
智能世界主导权的迁移:从人类社会到万物互联的云脑+终端
智能主导权从人类社会向人机协同迅速迁移,最终人类的智能权杖要禅让给机器。MIT物理学终身教授泰格马克在《生命3.0》一书中明确提出:人工智能将完成人类的最终进化。他给智能的定义是:完成复杂目标的能力,智能可独立于物质层面而存在。《牛津词典》对智能的定义是“以一种逻辑的方式对事物进行学习、理解以及思考的能力”。这两种定义里都未把智能的主体界定为人类。
对于“计算能力”“摩尔定律”的提升速率是集成电路上可容纳的元器件的数目,约每隔 18-24 个月便会增加一倍,性能也将提升一倍。而非盈利的AI研究机构OpenAI2018年发布了一份“AI与计算”的分析报告显示:自2012年以来,在最大的AI训练运行中所使用的计算力呈指数增长,每3.5个月增长一倍。也就是说,自2012年以来,这个指标已经增长了30万倍以上(如果增长一倍的时间需要18个月,仅 能增长12倍)。相对于此,人类进化300万年,脑容量从南方古猿的440立方厘米,到能人的680立方厘米又到现代智人的1400立方厘米,平均一百万年增长一倍。
“摩尔定律”本身的延续性此前受到质疑,但摩根大通最新报告显示,半导体设备厂艾斯摩尔(ASML)确认1.5纳米制程的发展性,最起码能支撑摩尔定律延续至2030年。相对于此,大脑神经元细胞的大小为微米级,体积比芯片庞大数千万倍,且不能采用3D堆叠等技术进行优化。算力和算法的叠加效应,还将加速机器智能的进化速度。不止于此,量子计算等还将极大拓展机器智能的边界。
今年以来谷歌已发布迄今最大芯片拥有超导电路制成的72量子比特,超过了IBM的50量子比特和英特尔的49量子比特。谷歌的研究人员预计将于一年内实现量子霸权。而IBM则预测5年内实现量子计算的商用化,英特尔方面则预计10年内实现。
华为公司预言,随着万物感知和万物互联的升级,一切都将被带入万物智能的世界。到2025年,个人智能终端数将达400亿,全球联接总数达到1000亿,并创造23万亿美元的数字经济,而华为的愿景就是做人类从数字世界走向智能世界的桥梁。
近年来有一种根深蒂固的思维误区,总是将单体的机器人或者机器智能与人类个体相比,言之凿凿声称AI永远无法实现通用人工智
能,也就是说单体的机器人永远无法超越个体的人类。这种思维方式忽略了大数据处理的人工智能有可能在分布式存储和超级云脑计算中实现整体超智能的“涌现”。比如,如果将单体人类和单体狮子比较,或许在猎食能力、运动能力等方面人类弱于狮子,但人类社会从总体上却能实现所有狮群无法企及的智能。所以,我们必须摆脱把一个人与一台机器对比的思维框架,将人类总体与机器智能总体进行对比。尽管在未来数百年,机器尚不能脱离人类单独运行。但总体趋势上,机器智能总体的能力和数量,总有一天会超过人类。
新加坡南洋理工大学黄广斌提出智能拐点在加速到来,无人能免受影响。他论证智能革命已经到来,地球总体智能指数在迅速提升,爆发阶段即将到来,并画出了智能指数发展趋势图。黄广斌教授认为,根据达尔文进化论,随着智能的普及深化,人的部分能力会退化,人也会越来越少,人类个体的智能也许到达历史的峰值附近,或许还有部分增长的空间;机器智能只是刚刚被启动,机器智能的爆发期还没有到来,将来也许非生命体智能的总指数会超过生命体智能总指数。世界由生命体智能、相对可控的人工智能和相对不可控的机器智能组成。人类如果善用机器智能,无疑会使得人类在机器智能的辅助下变得更智能和更智慧。但是也面临着三大挑战:人类和生物智能的主宰地位受到人类创造的机器智能挑战;虽然非生命体智能由人类创造,却最终很可能变的不可控、不可确定性;最终是智能而不是智能的载体穿越时空。
过去50年,互联网和全球化趋势将人类智能的潜力发挥到了极限。但“摩尔定律”推动的算力暴涨和大数据聚集引发的信息爆炸又将人类智能的局限暴露无遗。未来已经到了人类自身生成的数据、智能终端传感数据、虚拟现实与对抗生成等所有数据信息大部分依赖机器云脑进行处理的新阶段。如果将主要负责搜集传感数据的终端与云端智能视为一个整体,那终端相当于神经末梢,云端的计算中心相当于大脑。未来世界的AI云脑由人类+机器的智能共同体构成,初期由人类主导,机器辅助,当机器总体性能超越人类总体后,则由机器主导,人类辅助。而互联网将云脑信息即时迭代到终端,万物互联的智能世界里,最初人类是最强大的终端,机器作为人类与云脑信息交互的辅助工具。当机器终端性能也超越人类个体后,机器终端的数量与种类会越来越多,人类在亿万终端中的主导权也终将让渡。泰格马克在《生命3.0》一书中指出,从进化角度看,人脑神经突触存储着大约100TB的信息,而人类DNA只存储了大约1.6GB的信息。而过去60年,硬盘价格便宜了1亿倍,用于计算而不只存储的快速内存价格骤降 10万亿倍。
可以说,过去数10亿年以DNA为载体进化,过去数百万年以人类文明为轴心加速的智能发展的确走到了一个全新的拐点前面,人类很难想象拐点以后世界将如何演化。
智能世界主导权的争夺:从大国争霸到AI生态系统博弈
全球计算机科学家对人工智能未来的预测有两种:一种是AI终将超越人类,一种是AI永远不可能超越人类。超越派无非对总体超越的时间点有分歧,几十年或者上百年在人类进化史上不过都是一瞬间。即使AI无能派也认同人工智能将对人类社会产生颠覆性影响。人工智能是蒸汽机、电力、计算机和互联网之后,对人类未来有革命性意义的通用技术。从军事角度看,AI是大国争霸的新式核武器。
如果万物互联的智能世界仍由大国主宰,那么云脑+智慧终端系统的进化和竞争压力都异常大,超算争霸、智联网争霸、智慧终端争霸必定风起云涌。即使大国在军事安全等领域无所作为,企业巨头在AI生态系统领域的博弈也将日益激烈。因为云端智能和终端智能都将以指数级速度迭代,大数据、大算力的聚集将形成全球几大AI智联网生态系统。这些超级智脑+超级智能终端生态系统,会合并成为超级智能共同体,共享开源框架,极速覆盖全球。
从这个角度看,就可以理解为何美国要不遗余力扼制中国智造2025以及中国人工智能产业的发展,因为中国对智能世界主导权的争夺对美国独霸全球智脑+智慧万物造成极大威胁。对于掌控超级智脑的国家或者企业而言,其他国家和企业就被自动降维。因此,这场决定未来世界主控权的竞赛,就变成了文明之间与企业之间的殊死决战。
智能世界主导权的终极主体:人机融合,共创万物智能新宇宙
宇宙空间探索需要人机融合。生命经过在地球40亿年的进化,演化出的智能主导物种就是人类。地球到月球的距离有38万公里,光只需要走1秒钟。仰望星空,宇宙有一千亿光年,但人类刚刚走过其中一秒钟。北京天文馆馆长朱进曾经说过,旅行者一号于1977年发射,走了40多年,还没有走完光的一天路径。苍穹浩瀚,等待我们去探索。人类需要更强有力的智能系统,足以带领我们去探索宇宙的无穷空间。
智慧极限的拓展需要人机融合。佛教有八识之分,其中眼识、鼻识、身识、耳识、舌识等五官(下转20页)
到了互联网领域,在进行个性化推荐的研究时,笔者发现很多开发者在设计商品推荐系统的时候,会考虑用户对价格的敏感性。如果一个用户经常在三级品类比如钢笔中,每一次购买的商品都选这个品类中比较便宜的,开发者设计的算法就判定这个用户价格敏感度高、比较“穷”。这时系统要对他进行推荐、或者关键词排序的时候,会优先把一些特别便宜的东西推给他。
如果未来人类自身处理信息的能力进一步减弱,很有可能是因为机器推给我们的信息更多了,人类变得更愿意依赖算法和机器。比如,到一个城市去旅游,可能我们需要机器推荐一个一流的游玩路线;我们到了一个教育系 统里,可能希望能获得优质的课程推送,甚至职业规划和人生规划等方案供我们选择。这个时候我相信计算机会根据你以前的行为、你的家庭背景、消费习惯等作出在算法看来最适合你的推荐。于是穷人和富人可能会抵达不同的城市的角落,可能会在很早的时候就有不同的人生规划和目标。在那个时候尽管我们表面上可以获取的信息更多了,但是因为这个信息都是某些信息中介推到我们这儿的,所以说贫穷和富裕之间的差距到底会增大还是缩小,不好说。
对酒驾的惩罚其实就是数据时效性的应用案例
人类是否可能为一些还没有发生的事情付出代价?这是很多人都在思考的一个问题。在《大数据时代》中,作者讲了一个很可怕的例子,到了大数据更加成熟的时候,系统可能会推算出一个人什么时候会犯罪,我们很庆幸这个情景如今还并没有发生。
但是有时候我们为了安全的原因会去猜测一个人的不安全因素有多大,比如,美国就会分析一个乘客的资料来看他是否是恐怖分子,如果危险因素过高他就会被留在机场。尽管一定程度上他的被拒登机,总体提升了其他乘客的安全程度,但这样做的代价是有一小部分人作为无辜者在这个系统中遭受到了不公平的待遇。
十多年前酒驾的危害刚开始被讨论的时候,争论是很大的。实际上在世界上很多国家酒驾是很正常的事情。从
某种意义来讲,对于酒后驾车,有很多的证据表明它会提高发生交通事故的概率。因为这个原因,尽管有些人酒后驾车还没有产生交通事故,但也可以基于数据的支撑对其进行处罚,如今酒驾已经入刑,笔者非常赞同这个规定,它对我们的交通安全很有帮助。我们可以想象一下20年以后我们的自动驾驶占到了很大的比例时,未来绝大部分的交通事故应该是因为人造成的,如果到了那个时候,真人驾车是不是就是最危险的一种?
除了对酒驾的处理,数据实效性也实实在在影响着个人的征信记录。中国有一句古话叫浪子回头金不换,讲的是一个人犯了错误,要改变自己,你的亲友可能会相信你,也应该相信你,所以你有了一个新的机会。但是计算机可不会这么想,比如你中学的时候打了架,可能大学的时候因为虚荣借了校园贷款没有还,这些事情过了一二十年可能会使你很难再次贷款,可能会影响你的婚恋,因为计算机绝对不会忘记数据。
面对不同立场,人工智能如何选择?
笔者认为,人工智能和大数据的存在已经开始改变人类的伦理体系。想象一下,假使有朝一日,人类伦理道德的规则必须要由机器来帮我们写,又该如何?比如,我们在路上开车,如果突然一群不遵守交通规则的人冲到车前,这时候你面临三种选择:一是开过去直接撞上这些人,因为他们主动违反了交通规则;二是左转,这样会撞到一旁等候的人;三是冲出这个围栏,可能自己会受伤甚至死亡。不管做什么样的选择,这个选择的主题首先是人,你可能是一个自私的人,也有可能是一个大公无私的人,但是这个拷问的回答者终归是人类。
实际上2017年有一篇很有趣的关于无人驾驶的文章,大体的意思就是说如果你把自己代入一个场景,你是一个坐在副驾驶上的人,你买了一辆无人驾驶的汽车,这个时候如果出现严重的交通意外,我们首先是保护路人的安全还是保护车主的安全?大部分人会选保护车主的安全,但是假设你在休息室等待的时候,你看到一个场景你被代入了,你是一个路人,看到无人车在路上跑,你回答同样的问题,绝大部分人会认为首先保护路人的安全,其次是车主的安全。
人的大脑和道德准则本身就是很复杂的。但是现在当我们真的有了无人车的时候就由不得你了,汽车就会做出判断。当机器人、这些设备高度的融入我们的生活时候, 当人类的行为必须通过冷冰冰的代码选择,所以未来很大一部分的道德主题的选择,这个时候我们人类的尊严,他的可选择性是否还有价值?
人工智能是毁灭性技术?
关于未来,笔者也道出了自己的看法和担忧:任何一种物种都有盛衰,猴子变成了人,猴子就衰退了,原来属于森林的土地上我们建了高楼大厦,猴子如果知道后果肯定会很仇恨第一只走路的猴子。人类有可能会毁灭,有可能是行星撞地球,有可能是来自于可怕的战争,有可能是大家担心的某种人工智能对人的替代。但是人工智能不是一个会毁灭人类的技术,因为人工智能发展到现在,他所有的要去优化的目标函数等都还是由人来设计的,至今我们还没有看到一群机器人自己设计自己,也没有看到一群机器认识到了自我。但是有一种技术对人类而言是最危险的,就是我们最终对大脑的认识。
其实在好几十年前,我们就已经很清楚的知道了小白鼠它所有的感觉、感知是什么样子,所以说我们放下一个杠杆,小白鼠他就会获得快感。如果我们某一天我们通过一个电机就获得各种各样的快感,或者在几天之内就走过我们的人生,如果是那样,我们普通人拼命的跋涉、拼命努力的动力从何而来?所以真正有可能影响我们社会、影响人类未来的可能是我们对大脑的设计。
以人工智能为牵引的新的科技时代已经到来,希望大家不管从事任何的领域,一定要去拥抱这个新的时代,但凡想要阻挡这个时代到来的人都只会成为旧时代的提灯者。