打字猴:1.704611251e+09
1704611251
1704611252 和BRAIN计划一样,伊茨科夫的计划被分解成了多个阶段。第一阶段要求建造能够被人脑控制的机器人。第二阶段是开发能够通过外科手术移植并寄存物理人脑的机器人。此后10年,伊茨科夫计划能够将人脑内容上传至机器人,这就意味着对人脑进行逆向工程。最后,到2045年,伊茨科夫计划通过全息图取代机器人。
1704611253
1704611254 在一封致世界部分最富有的人的公开信里,伊茨科夫请求他们支持他的计划,甚至考虑志愿成为早期实验主体。他写道:“我劝你们关注一下为控制论的永生和人造肢体领域科研提供资金的重要性。这种研究可能使你们以及这个星球的多数人免遭疾病、衰老甚至死亡之苦。”
1704611255
1704611256 “俄罗斯2045”计划得到了大量支持。但参与者名单上的一个名字比其他人更能引起我的兴趣。他就是严肃且卓有成就的神经系统科学家肯·海沃思(Ken Hayworth)。
1704611257
1704611258
1704611259
1704611260
1704611261 人工智能:改变世界,重建未来 [:1704609618]
1704611262 人工智能:改变世界,重建未来 意识上传
1704611263
1704611264 还是一个孩子时,肯·海沃思就希望进入太空。像许多在阿波罗太空计划的时代长大的孩子一样,他为太空旅行及其无数人类可能性的想法所痴迷。从那时起,海沃思变得雄心勃勃。他不仅仅想拜访太阳系的另一个星球,还想建造一艘新型火箭,载着我们去最近的星球。
1704611265
1704611266 “我是那种对它很痴迷的人,”他承认道,“我开始钻研它是如何实现的这一物理现象。我查看人们事先已经想出的不同设计,然后疯狂地研究它们。”但他最终放弃了这些使他泄气的研究。就像年轻的海沃思所说的那样,这种需要将人类在其生命有限期内带到最近星球的工程已经超过了我们最狂野的技术梦想的能力范畴。即使他明天就起飞,在接近他的目的地之前,这个少年也可能已经死去或已衰老了。
1704611267
1704611268 阅读使他接触到一些关于神经网络的书籍。他说道:“那时,我开始考虑其他方式能否完成这个目标。我渐渐理解,太空飞行的问题是人类遇到的真正问题。如果我们可以将人的想法从其沉重且需要生命支持、屏蔽辐射的身体中提取出来,那么这些信息就可以通过无线电波以光速传递。”几乎整个夜晚,海沃思的注意力从建造重型宇宙飞船的硬工程转向了人脑工作方式的问题上,他认为,如果真有可能,思维可能会被拆开并再次组合起来。
1704611269
1704611270 肯·海沃思拥有计算机科学本科学位和神经系统科学博士学位,如今是一个名为“大脑保存基金会”(Brain Preservation Foundation)的组织的主席兼联合创始人。这是个略微有些汉默式恐怖风格但运行良好的组织,它老掉牙的名字使人不由自主地想起彼得·库辛(Peter Cushing)和克里斯托弗·李(Christopher Lee)主演的老电影。
1704611271
1704611272 海沃思十分明确地谈到了意识的上传。“我绝对相信意识上传是可行的,而且我认为我们应该为此积极努力。”他说:“至少,医生应该赋予人们以高保真方式保存自己大脑的能力。当这种能够以神经突触方式扫描整个大脑的技术出现时,就可能使某个具有仿真大脑和机械肢体的人重回这个世界。”他停顿了一下,然后补充道:“我当然期待这个人就是我自己。”
1704611273
1704611274 他同样对那种失败主义者的探讨不予理会,他们认为这些事情根本不可能成功。他在一篇发表的论文上这样写:你愿意接受一项未经检验的手术吗?这个手术会把你的身体和大脑温度降至10℃,使你的心跳和血液停止整整一个小时,你愿意吗?在这期间,你的大脑将处于稳定状态,因为在10℃时,所有神经元间的交流都会停止,这意味着在你复苏前的整整一个小时里,你的身体条件满足了关于死亡的医学上的所有要求。如果你对这个问题回答“不”,你可能犯下了一个可怕的错误。海沃思所说的“未经检验”的手术过程实际上是一种已经存在的手术,称为深度低温和循环骤停,用于治疗脑动脉瘤等疑难病症。“这个方案唯一不切实际的地方是医生让他的病人自杀(通过拒绝接受手术)来结束这个脆弱的哲学争辩。”海沃思说:“今天,医生可以简单地指出数百份病历,这些患者在接受了这样的手术之后都过着高质量并且健康的生活。”
1704611275
1704611276 相比实现意识上传我们需要达到的技术水平,我们今天的技术水平相当于弗兰克·罗森布拉特等研究人员在20世纪80年代通过神经网络所达到的技术水平。既然这样,整体情况就是正确的,但是我们需要继续查漏补缺。来自神经系统科学等领域的最新见解会大有帮助,同时不断增长的数据集和摩尔定律也有助于完成剩余的工作。通过这种方式实现机器意识有些类似谷歌优化其搜索引擎的方式。拉里·佩奇和谢尔盖·布林在斯坦福大学以“网页排名”(PageRank)起家,直到目前,这种技术依然是谷歌帝国的核心。网页排名按照每个网页的质量和该网页的链接数量排名。尽管网页排名依然是一种至关重要的算法,但谷歌已经使用了200多个不同的信号或者“线索”来强化它,这些信号产生了许多关于用户在找什么的猜测。正如谷歌工程师所说的,除了网页排名,“这些信号包括如网站术语、内容新鲜度和你所在的区域。”人类意识可能贮存在类似的线索中:生活的训练数据与几百万年的进化结合而成的产物,我们称之为本能。
1704611277
1704611278 但是我们正日益接近。近期研究已经表明,成长中的儿童表现出了做许多决策的能力,这些决策推动了许多人工智能系统向前发展。由于数十亿美元的投入,以及肯·海沃思等聪明的研究人员的孜孜工作,意识上传成为现实只是个时间问题。
1704611279
1704611280 如果这样,他希望:“发明意识上传相当于发明了盘尼西林。”在会谈将结束时,海沃思对我说:“这必须要做,每个人都会明白,这才是该做的事。我们将难以想象在它做成之前我们曾经在怎样生活。”
1704611281
1704611282
1704611283
1704611284
1704611285 人工智能:改变世界,重建未来 [:1704609619]
1704611286 人工智能:改变世界,重建未来 第八章 人工智能关乎未来的一切
1704611287
1704611288 2014年11月,时年43岁的特斯拉汽车和太空探索技术公司首席执行官埃隆·马斯克在未来学网站Edge.org上发出一条在线评论。“人工智能的进步……快得出人意料,”他写道,“除非你直接接触DeepMind这样的团队,否则你根本不知道这种步伐有多快,人工智能正在以近乎指数级的速度增长。未来5年就有可能发生一些非常危险的事情,最多不会超过10年。我并不是在对着我不懂的事情高喊‘狼来了’,也不是只有我一个人在考虑我们应该警惕起来。领先的人工智能公司已经在大力采取措施确保安全。它们意识到了危险,但它们是否可以规划和控制数字超级智能,并能够阻止恶意智能逃进互联网,这一点还有待证实……”
1704611289
1704611290 几分钟之后,他删除了这条消息。马斯克有很多特点,而且许多特点都很不错,而这些特点中绝对不包括孤陋寡闻。过去几年间,他领导的这家电动汽车企业对多家机器智能公司进行了投资,包括上文提及的DeepMind,这是一家深度学习公司,在前面章节已经介绍过它的工作内容。马斯克个人资产净值约为112亿美元,他说,他对人工智能进行投资不是为了获得投资回报,而是为了获得消息。“我喜欢密切注意人工智能的发展进程,”他对美国CNBC(全球性财经有线电视卫星新闻台)如是说道,“我认为人工智能可能会造成比较危险的后果。”
1704611291
1704611292 埃隆·马斯克并非唯一担心制造会思考的机器可能会造成尚不为人所知的危险的人。著名物理学家斯蒂芬·霍金(Stephen Hawking)是另一位表达保留意见的名人。“人们可以设想这样一种技术,它比金融市场更聪明,发明能力比人类研究人员更强,控制能力比人类领导更强,而且可以开发我们无法理解的武器。”他在2014年5月写道,“人工智能的短期影响由其控制人员决定,而长期影响则由人工智能是否完全被人控制所决定。”
1704611293
1704611294 霍金的许多观点都与本书一直讨论的人工智能的发展密切相关。如上文所说,伴随着神经网络的崛起,人工智能在金融市场的应用发生在20世纪80年代。在某些场合,人工智能确实证明了其无与伦比的发明能力,尤其是在处理基因算法时。人类的操控者可以只将重要的任务移交给即将管理我们生活的人工智能助理,与此同时,自人工智能出现之日起,人工智能武器的开发就一直是这个领域的目标之一。
1704611295
1704611296 霍金与马斯克着重强调了所谓的通用人工智能(Artificial General Intelligence,简称AGI)。到目前为止,本书中描述的所有人工智能应用都属于“狭义人工智能”或“弱人工智能”。这种称呼与该技术是否强大无关。正如我们在前几章看到的,今天,深度学习神经网络比构成传统人工智能的符号处理人工智能稳定许多倍。而“狭义”与“广义”或“强”与“弱”之分归结于智能的通用性。人工智能现在可以在很多特定领域打败人类,包括下棋和在电视节目《危险边缘》上回答问题。人工智能的应用范围一直在不断壮大,而且未来数十年内可能会覆盖当前一半的就业领域。
1704611297
1704611298 然而,尽管不同于只在小范围内有用的早期人工智能,这种狭义人工智能仍然可以进行扩展,从而在现实世界中发挥作用,但是这种人工智能仍然有明显的局限性,那就是只能用于单一且严格限定的领域。这里有个简单的例子,下棋人工智能虽然可以击败人类象棋大师,但它们在简单的翻译任务中则一无是处。如果你突然要求生产iPhone的机器人去画画,它可能也同样会非常失败。即使是旨在处理多任务的人工智能助手Siri等人工智能,如果你偏离了程序所预设的脚本,它也会变得混乱。尽管这些系统已经获得了惊人的海量数据和计算能力,但是它们缺乏基本的人类特质,比如不能从少量训练例子中总结规律,这就是为什么计算机科学家正在构建更多类生物学大脑算法。
1704611299
1704611300 那么通用人工智能中的“通用”有什么含义呢?与狭义、单领域人工智能应用相比,通用智能将表现出更广的、类人的智能。“通用问题解决者”就是这样一款人工智能。1959年赫伯特·西蒙、J. C. 肖(J. C. Shaw)和艾伦·纽维尔(Allen Newell)将一款人工智能软件乐观地命名为“通用问题解决者”,它能够在很多环境中运行,甚至在许多我们没有预测到的环境中运行。一言以蔽之,通用人工智能不是要建造思考的机器,而是要建造比我们人类更聪明的机器。
[ 上一页 ]  [ :1.704611251e+09 ]  [ 下一页 ]