打字猴:1.700920206e+09
1700920206
1700920207 小行星并不是造成生物大灭绝的唯一原因。还有一个来自天空的嫌疑犯就是超新星爆炸引发的伽马射线暴,正是它导致了约4.5亿年前的第二次生物大灭绝。尽管现存的证据太少,不足以在“法庭”上判它有罪,但这名“嫌疑犯”显然拥有作案的方法和可行的机会。当某些质量超大、旋转超快的恒星以超新星的形式爆发时,它们会将剧烈的爆炸能量以伽马射线的方式释放出来。如果这种杀手射线扫过地球,它将带来两个连环效应:首先,它将直接毁灭人类,并毁掉地球的臭氧层;之后,太阳的紫外线会再次清扫地球表面。
1700920208
1700920209 不同的天文学风险之间有着有趣的关联。偶尔会有恒星随机地逛到太阳系附近,干扰小行星和彗星的轨道,将它们成群结队地送入内太阳系。其中一些有可能与地球相撞。比如,预计140万年后,恒星格利泽710就将在1光年外的地方路过太阳系,比我们最近的邻居——比邻星目前与地球的距离近4倍。
1700920210
1700920211 此外,今天的银河系,大部分恒星都乖乖地按同样的方向绕银河系中心旋转,就像有条不紊的转盘。然而,当银河系与仙女星系相撞并融合后,就会一团糟。恒星之间破坏性接触的频率大大提升了,这将激发大量小行星,甚至可能将地球踢出太阳系。这种星系撞击还会造成气体云的相撞,引发一波造星运动,而最重的新生恒星会很快爆炸成超新星。如果它们距我们很近,结果不会很舒服。
1700920212
1700920213 回到家园,我们还可能面临着“内敌”——地球自身引起的事件。超级火山和玄武岩浆洪流是多次生物大灭绝的头号嫌疑犯。它们能用黑暗的尘云封锁地球,遮蔽阳光数年之久,引发“火山冬天”,与大型小行星撞击后一样。它们还可能会在大气层中注入能导致有毒物质、酸雨和全球变暖的气体,从而干扰全球生态系统。实际上,人们广泛认为,西伯利亚的一次超级火山爆发就是2.5亿年前那次最大规模灭绝事件的罪魁祸首。这次事件被称为“大灭绝”(Great Dying),几乎摧毁了96%的海洋生物。
1700920214
1700920215 自作自受,打开潘多拉的盒子
1700920216
1700920217 总而言之,我们人类面临着来自天文或地质的存在风险;我只总结了我个人认为最严重的例子。当我思考这些危机时,我得出的结论实际上非常乐观:
1700920218
1700920219 ●很有可能,未来科技能帮助地球生命再繁荣数十亿年。
1700920220
1700920221 ●如果我们和后代一起努力的话,应该能够研发出这些科技。
1700920222
1700920223 前文没有谈到图12-3左边那些最紧急的危机,现在,给我们一些时间来处理剩下的这些问题吧!
1700920224
1700920225 颇具讽刺意味的是,这些最紧急的问题大都是自作自受。与之相比,大多数天文和地质的灾难都徘徊在几百万甚至几十亿年后,而我们人类却以10年为单位,迅速改变着一切,就像打开一个潘多拉的盒子,里面飞出了各种各样的存在风险。我们用渔业、农业和工业转变了水、土地和空气,每年造成30 000种生物灭绝,被生物学家称为“第6次生物大灭绝”。接下来该灭绝的生物,会不会是我们自己?
1700920226
1700920227 毫无疑问,你一定听说过有关人为危机的严厉争论,从(意外发生或故意而为的)全球性瘟疫到气候变化、污染、资源枯竭和生态系统崩溃。让我来告诉你,我最担心的两个人为危机是什么——意外的核战争和不友好的人工智能。
1700920228
1700920229 意外的核战争
1700920230
1700920231 “连环杀手正逍遥法外!”“人体炸弹!”“当心禽流感!”尽管报纸头条都喜欢用这些标题来吸引眼球,但最有可能杀死你的其实是古老又无聊的癌症。虽然你每年患癌症的概率低于1%,但是只要你活得够长,最后的概率还是很大。意外的核战争也同样如此。
1700920232
1700920233 在过去的50多年里,人们造出了能够引起核决战的工具。这段时间里发生了一连串爆发全面战争的虚假警报,原因有很多,从计算机失灵、供电故障、情报错误到导航误差、轰炸机坠毁和卫星爆炸。在我17岁时,这些事情让我十分困扰。那时我作为自由撰稿人为瑞典和平杂志《PAX》撰写文章。这本杂志的主编卡里塔·安德森(Carita Andersson)热心地培育了我对写作的热忱,教会我许多技巧,并让我写了一系列新文章。逐渐解密的历史记录显示出某些核事件的风险远远大于当初认为的程度。比如,很明显,在2002年的古巴导弹危机中,比尔号驱逐舰(USS Beale)向一艘身份不明的潜艇发射了深水炸弹,而后者实际上是一艘装载有核武器的苏联潜艇,它的指挥官们争吵着是否应该回敬一颗核鱼雷。
1700920234
1700920235 尽管“冷战”早己结束,但近年来的危机却不减反增。洲际弹道导弹不甚精确但破坏力极大,这加强了“互相保证毁灭”(mutually assured destruction)机制的稳固性,因为一方先出击将导致无法避免的大规模报复行动。但近年来,导弹研究转向更精确的制导、更短的飞行时间和更好的敌方潜艇追踪系统,侵蚀了前述机制的稳定性。导弹防御系统一旦成功,将彻底侵蚀这个机制。俄罗斯和美国都保留了他们的预警发射战略,要求发射决策在5~15分钟的时间内完成。而在这么短的时间里,可能根本无法获取完整的信息。1995年1月25日,俄罗斯时任总统叶利钦差几分钟就要启动针对美国的全面核战争,只因为一个身份不明的挪威科学火箭。美国一个项目计划用常规弹头取代三叉戟潜艇搭载的24枚D5洲际弹道导弹中的两枚,引发了广泛担忧;因为俄罗斯的预警系统无法将它们与核导弹区分开,增加了灾难式误解的可能性。还有一些令人担忧的情景包括精神不稳定的军队指挥官和/或边缘政治/宗教行为导致的刻意渎职行为。
1700920236
1700920237 可是,为什么要担忧呢?当然,如果事态变严重了,理智的人们会站出来,作出正确的选择。实际上,有核国家都有精心设计的对策,就像我们的身体对待癌症一样。我们的身体通常可以处理孤立的恶化突变,并且,要引发某一种癌症,可能需要同时触发4个看似巧合的突变。然而,如果我们扔骰子的次数足够多,坏事就可能会发生——斯坦利·库布里克(Stanley Kubrick)的核战争黑色喜剧《奇爱博士》(Dr.Strangelove)就将其描绘为一个三重巧合。
1700920238
1700920239 在我的人生中,两个超级大国之间意外的核战争有可能发生,也可能不会发生。如果它发生了,它必将改变一切。我们目前所关心的气候变化与核冬天相比,根本不算什么。核冬天来临时,全球性的尘云将阻隔阳光长达数年之久,就像小行星撞击或超级火山造成生物大灭绝时的后果一样。2008年经济动荡在核战争面前是小巫见大巫,因为核战争会导致全球性的作物枯竭、基础设施崩溃和大规模的饥荒。在饥饿中挣扎的幸存者会组成武装团伙,挨家挨户抢夺财物。我的人生中会遇见这样的事情吗?我赌30%的概率,与我患癌症的概率差不多。然而,我们对防止核战争所给予的关注和资源,远远低于我们为预防癌症所做的努力。即使全人类的30%都得了癌症,总体来看,人类还是会幸存,但如果爆发核战争,我们的文明不一定能逃过这一劫。关于如何降低这一风险,在科研机构的大量报告中有具体且直接的步骤——但这永远不会成为第一要务,总是被大多数人忽略。
1700920240
1700920241 不友好的技术奇点
1700920242
1700920243 工业革命带来了比我们更强壮的机器。信息革命带来了在某些方面比我们更聪明的机器。在哪些方面呢?曾经,计算机只能在简单的、依靠蛮力的认知任务(例如快速算术或数据库搜索)上超越我们。但是2006年,一台计算机打败了国际象棋冠军弗拉基米尔·克拉姆尼克(Vladimir Kramnik);2011年,一台计算机在美国智力竞赛电视问答节目《危险边缘》(Jeopardy!)中击败了卫冕冠军肯·詹宁斯(Ken Jennings);2012年,一台计算机在美国内华达州获得了驾驶执照,因为它的汽车驾驶技术被证明比人类更安全。这些进展会走向何方?计算机最终能否在所有任务上都超越我们,从而衍生出超人的智能?我毫不怀疑,这必将发生:我们的大脑是一堆遵守着物理定律的粒子,并没有一个物理定律阻止粒子组成某些能完成更高级的计算过程的排列。但是,它真的会发生吗?如果真的发生了,这会是一件好事,还是坏事呢?这些问题十分适时:尽管某些人认为超级智能机器在可预见的未来不可能实现,但还有一些人不这么认为,例如,雷·库兹韦尔就预言,2030年,这样的机器就会出现,使其成了目前必须应对的、最紧急的存在风险。
1700920244
1700920245 ●奇点理论
1700920246
1700920247 总而言之,我们并不清楚超级智能机器会不会出现。在这件事上,人工智能专家们也分成了几个阵营。但我个人的观点十分清晰,那就是,如果它发生了,后果将是爆炸性的。在我出生的两年前,也就是1965年,英国数学家欧文·古德(Irving Good)解释了原因:
1700920248
1700920249 超级智能机器的定义是一台能超越所有人类智力活动的机器,不管人类有多聪明。由于对这种机器的设计也是人类智力活动之一,因此,超级智能机器能够设计出更好的机器;毫无疑问将会发生一场“智能爆炸”,将人类的智力远远甩在后面。这样,第一台超级智能机器就是人类需要发明的最后一个东西,因为这种机器足够温顺,它会告诉我们如何才能控制它。
1700920250
1700920251 1993年,数学家兼科幻作家弗诺·文奇(Vernor Vinge)写了一篇启人深思、使人冷静的论文。他把这种智能爆炸称为“奇点”(the Singularity),认为我们根本不可能对该点之后的事情作出可靠的预测。
1700920252
1700920253 我猜测,如果我们能造出超级智能机器,那么第一台这样的机器将严重受限于人类为它编写的软件。由于我们不理解如何将智能程序最优化,所以我们可能会用硬件来弥补这一点,我们可能会建造非常强大的硬件,其计算能力甚至超过我们的大脑。毕竟,我们的神经元并不比海豚的神经元多,也不比海豚的神经元好,只是连接方式不同而已。这意味着,有时候软件比硬件更重要。在这种情况下,第一台机器或许能够通过一遍又一遍重写自己的程序来实现一次又一次彻底的进步。也就是说,我们人类花了数百万的时间,才从猿猴般的祖先里彻底进化出了智能。而这种机器能以同样的方式,在短短的几小时甚至几秒钟内,就进化出远超祖先——也就是我们人类的智力。
1700920254
1700920255 从此以后,地球上的生命再也不一样了。不管是谁,也不管是什么,只要控制了这种科技,就能迅速成为全世界最富有、最有权势的富豪。它比所有金融市场更聪明。它发明的东西、获得的专利远超所有人类研究者。通过设计出本质上更好的计算机硬件和软件,这种机器能迅速提升自己的能力和数量。很快,它们就能发明出超乎我们想象的科技,包括任何它们认为有必要的武器。政治、军事和社会控制将很快跟上来。基于当代的图书、媒体和网络内容产生的影响,我怀疑这种机器能够出版比几十亿拥有超级天赋的人类还多的书籍,并能赢得我们的心灵和思想,而不用彻底收买或征服我们。
[ 上一页 ]  [ :1.700920206e+09 ]  [ 下一页 ]