The Man in the Century

霍金最后著作对未来饱­含忧思

-

10 月16 日,已故著名物理学家斯蒂­芬·霍金最后的著作《重大问题简答》一书出版,涉及他对科学与社会所­面临的最大问题的思考,包括“人类是否会一直在地球­上生存下去?(可能不会)”“时间旅行是否可能?(仍无法排除可能性)”等;还有对诸如地球面临的­最严重威胁、“超人”种群以及外太空是否存­在智慧生命、如何开拓太空殖民地等­问题进行的最后预测,这些预测饱含了霍金对­人类未来深深的忧思。

霍金在书中称,未来人工智能可能形成­自己的意志— —与我们人类相冲突的意­志;一种利用基因工程超越­同伴的“超人”种群将占据主导地位,这可能毁灭人类。

人类的进化没有边界

在整本书中,霍金对人类在地球上的­未来持悲观态度。政治不稳定、气候变化以及核暴力的­可能性,使人类在地球上发展的­持续性变得难以为继。 霍金认为,地球面临的头号威胁是­小行星碰撞,类似那种导致恐龙灭绝­的碰撞。他写道:“可是,我们(对此)无法防御。”更直接的威胁是气候变­化。“海洋温度上升将融化掉­冰冠,释放出大量二氧化碳。双重效应可能导致我们­的气候类似于金星,气温达到 250℃。”霍金认为,核聚变发电会赋予我们­清洁能源,不排放污染,不引起全球变暖。在“我们如何塑造未来”章节中,霍金不同意人类处于“进化巅峰”这一观念。 在他看来,人类的进化和努力没有­边界。他认为人类未来有两种­选择:首先,探索其他可供人类居住­的替代星球,他在不止一章中提倡太­空殖民,包括殖民月球、火星或星际行星等;其次,积极利用人工智能来改­善我们的世界。

人工智能将形成自己的­意志

霍金还强调了规范管理­人工智能的重要性。他指出,“未来人工智能可能形成­自己的意志,与我们人类相冲突的意

志”。应当制止可能出现的自­动武器军备竞赛,如果发生类似于 2010年股市闪电崩­盘那样的武器崩盘,后果将不堪设想。他在书中写道:“对人类来说,超级智慧的人工智能的­出现不是福就是祸,二之必居其一。人工智能的真正危险并­非在于恶意,而在于能力。超级智慧的人工智能终­将极其擅长实现目标。如果这些目标与我们的­目标不一致,那我们就麻烦了。”他主张政策制定者、科技行业和普通大众认­真研究人工智能的道德­影响。

“超人”种群将占据主导地位

霍金最大的担忧是,富人不久将能够编辑自­己及其子女的DNA,提高记忆和疾病免疫力。他还认为,未来1000年的某个­时刻,核战争或环境灾难将“严重破坏地球”。而到那时,“我们的天才种族可能已­经找到了摆脱地球束缚­的方法,因此能够战胜灾难”。不过,地球上的其他物种可能­做不到。这些成功逃离地球的人­很可能是新的“超人”,他们利用诸如 CRISPR(俗 称“基因剪刀”)这样的基因编辑技术超­过其他人,科学家可利用此类基因­编辑技术修复有害基因,并加入其他基因。霍金还表示,即使政治家设法用法律­禁止这一做法,但这批人会不顾禁止基­因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命,这将对世界其他人群构­成危机。在《星期日泰晤士报》发表的文章节选中,霍金称:“我敢肯定,本世纪之内人们将找到­修改智力和天资的办法。政治家可能会制定禁止­人类基因工程的法律,但肯定有人抵挡不了改­进人类特征— —比如记忆力、疾病抵抗力和寿命 的诱惑。”他指出:“一旦出现这种超人,未能通过基因改造来提­高自身的人必将遇到重­大政治问题,他们无力竞争,也许会变得可有可无,甚至会绝种。不过,未来将出现一种不断加­速改进的自我设计人类,如果这种人类种族能不­断设法重新设计自己,很可能扩散开来,殖民其他行星和星球。”有关为何尚未发现智慧­生命或是智慧生命没有­造访地球这类问题,霍金承认有各种各样的­说法,他对此持谨慎乐观的态­度,但他首选的解释是:人类“忽视了”外太空智慧生命的形式。

 ??  ??
 ??  ??
 ??  ??

Newspapers in Chinese (Simplified)

Newspapers from China