1701071680
如果你告诉我你会思考,那我只能相信你。我们可以制造一台会说“我认为”“我很开心”“我为她感到难过”等句子的机器。你又将如何证明这台机器是否真的能思考,或者是否真的有感情?
1701071681
1701071682
IBM已经在给“沃森”设计能够识别人们情感的程序,日本机器人“胡椒”也被设计了同样的能力,情感机器人时代已经到来。试图理解人类的情绪再做出相应行为的机器人将被发明出来。设计这样的机器人其实并不是特别难,只是因为实际可应用之处还非常少,所以这种“情感机器人”才没有像人脸和声音识别一样迅速发展。
1701071683
1701071684
有人假设,鉴于神经网络模拟人脑的技术发展得如此先进,机器人很快就能以我们的方式“思考”。然而,这种假设建立在对人脑工作原理的极大误解之上。首先,我们对人脑到底如何工作还所知甚少。如今的医学水平连一些最常见的脑部疾病都无能为力。完全理解人脑的运转原理可能需要花上几十年甚至几个世纪。所以,我们现在只有非常肤浅的脑部结构模型。其次,今天我们已有的人工神经网络只是接近这些肤浅的模型。人工神经网络只有一种神经递质(neurotransmitters),神经元之间只有一种沟通方式,而人脑已知的神经递质就有52种,真正有的可能更多;人工神经网络假设神经元只是一个0—1的开关,然而,神经系统科学家们发现,真正的神经元内部结构非常之复杂。
1701071685
1701071686
简单地说,如今我们的机器人要模拟人脑还遥不可期,因为我们距离完全理解人脑都还非常遥远。拥有一台等于人脑的机器更是无从谈起。如果未来有一天人类真的完全理解人的大脑了,我们或许可以尝试回答这个问题。
1701071687
1701071688
问题是,现在很多人早已习惯和沉浸于“机器思维”,他们喜欢高效而简洁的行动,喜欢大量的智能设备,也同样觉得自己很开心。是的,某种程度上,我们简直在创造一种新的人性。当然,每个人都可以自由地选择让自己开心的方式,你可以选择天天在家里玩游戏,也可以选择去旅行。在硅谷,有一段时间很多人确实都是“技术控”,他们就是喜欢宅在家里沉溺于游戏、社交网站等,但现在越来越多的人开始喜欢爬山,喜欢走出来跟人和自然交流。
1701071689
1701071690
不可忽略的事实是,现在的年轻人过于依赖智能设备。而这些电子设备并不比过去“智能”多少,年轻人却比他们的父辈、祖父辈“傻”多了,很多人连根据太阳识别方向的能力都没有。
1701071691
1701071692
年轻人有时候已经不动脑子了,如果智能设备能更多地用于一些让人更聪明的活动,而不是在线社交、购物和打游戏就好了。可能说智能设备让我们变“傻”不准确,但现在很多人确实乐于什么都不做,他们希望智能设备最好能把事情全都“想”好。人类一向都想要无所不能,如今大家却期待机器变成无所不能的,自己则甘于平庸。如果这是一种新的人性,我不确定它是不是我们真正想要的。
1701071693
1701071694
你可能会问,如果在未来,人工智能可以应用在更多一些让人变聪明的地方,是不是情况会有所不一样?这正是我担心的又一个问题,即人工智能的产业发展方向。迄今为止,人工智能最成功的应用是搜索引擎在电脑上个性化的展示广告。Facebook的前科学家杰弗里·哈默巴赫尔(Jeffrey Hammerbacher)对此颇为感慨,他曾写道,“我这一代最聪明的大脑思考的问题只是怎么让人们点击广告”。这确实很悲哀,人工智能可以在很多方面改善人们的生活,第一个应用却是让人们在网站上花钱。我担心人工智能在未来的应用将取决于谷歌这样的大公司到底如何使用它们的技术。
1701071695
1701071696
如今阅读网站内容的30%读者都是机器。当然,这些机器大部分都属于大公司。当我想到未来大部分内容还是人类来写,大部分读者却很快都会变成机器人,机器人读者的数量甚至会超过人类时,心里真的不是滋味。你在网上做的任何事情都会被机器记录下来和进行分析,机器会非常“专业”地读你写的任何内容,并不是因为它们真的喜欢你写的东西,只是因为你的个人生活对它们来说是一个商业机会,它们要看下你写的东西有没有用。这类读者的动机和行为都让人觉得有那么点邪恶。
1701071697
1701071698
今天我们生活的世界只是部分自动化。我担心的是,在一个完全自动化的世界里,我们的人性又会何去何从。
1701071699
1701071700
我担心的是,由于越来越多的机器取代了人的工作,人跟人之间的互动会日益减少。如今,谁给你现金?自动取款机。谁递给你火车票?自动售票机……我们倾向于从经济层面看机器取代人工后的好处:这种服务可以变成一天24小时,一周7天,服务成本还很便宜。虽然一份工作被取代了,但我们可以在其他地方创造更多的工作,因为我们在这些地方省钱了,等等。但是,这背后隐藏的一个重要的,也容易被忽略的信息是:每一次我周围的人被一台机器取代,就意味着我跟人类的互动机会减少一次。
1701071701
1701071702
人和机器互动的结果就是人类之间互动的减少,这种趋势已经在过去一个世纪里不断增长(我们早已忘了曾经有电话接线员,曾经有专门的打字秘书等)。这种趋势在人工智能时代还会继续加强,直到很多人,尤其是老人将只能跟机器互动。机器会打理你的房子,会帮你办杂事,会关注你的健康,还会跟你娱乐……这会极大地降低你跟其他人的互动,甚至包括你的家人(意味着家庭支持也会变得越来越不重要)。你将只有很少几个朋友,你的同事会是机器人,你的朋友也会是机器人。我们不禁思考,如果我们不再跟人类互动之后,人性到底会发生什么改变。
1701071703
1701071704
1701071705
1701071706
1701071707
人类2.0:在硅谷探索科技未来 硅谷声音
1701071708
1701071709
斯图尔特·罗素:未来20年,将人类的价值体系教给机器人
1701071710
1701071711
英裔美籍计算机科学家斯图尔特·罗素(Stuart Russell)是加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授,同时他还是人工智能领域“标准教科书”——《人工智能:一种现代的方法》(英文书名为Artifical Intelligence A Mooern Approach,清华大学出版社,2013年11月出版)的作者,被誉为“世界顶级AI专家”。
1701071712
1701071713
我们在加州大学伯克利分校他的办公室见到了他,罗素认为,机器人未来发展的关键是,人类要将是与非、好与坏的常识和价值判断标准教给机器人。比如现在大家都对能做家务的服务型机器人青睐有加,但是,如果要真正保障安全性,这个机器人就需要具备很多常识。比如,它要知道主人的猫是不能用来做晚饭的。
1701071714
1701071715
确保人和机器拥有共同的目标
1701071716
1701071717
由于不了解,机器人会取代人类,甚至杀死人类的声音不绝于耳,公众对人工智能有太多误解。人们总是不自觉地把人工智能和杀人联系在一起,事实上,这个领域可没有人研究杀人机器人。还有一个原因是,媒体没有向大众解释人工智能到底是什么,媒体只是一天到晚在说人工智能总有一天会失控,或者人工智能会有自我意识……这些都是不可能的。
1701071718
1701071719
AlphaGo大胜人类引发了对人工智能的又一轮恐慌。相反,我对AlphaGo很失望。AlphaGo实验的初衷是想知道人工智能能否像人类下围棋一样思考,即给你一个复杂的难题,你需要解决不同区域的小问题,最后综合起来解决大问题。然而,实际操作上,谷歌的AlphaGo用的方法还是传统的机器战胜象棋高手的方法(IBM的深蓝早已在1997年做到),即学习尽可能多的“每下一子后最理想的下一子是什么”(靠用大数据学习已有围棋棋局),这种方法叫蒙特卡洛树搜索(Monte Carlo Tree Search)法,我们姑且把这个方法叫“种树”。即便如此,机器也只“种了部分的树”,远远没有学习完围棋棋局所有的可能性,当然,靠“种足够长的部分枝干”赢过人类已经足够了,但这种方法无疑是有缺陷的,甚至是错误的。从本质上来说,由于根本没有也无法证明人工智能可以像人类那样下围棋,这个实验其实是失败的。
1701071720
1701071721
这个问题其实早在1960年就被提出来了,人工智能的危险到现在也没有发生。人工智能会带来危险的一个很重要的原因是,人类其实很不擅长表达自己想要什么,人们经常会误解自己的愿望或者不知道如何正确表达。在和机器人交流时,人类的措辞必须全面而准确。比如,当你对一个人说:“你能找到消灭癌症的方法吗?”对方能够理解这意味着什么,但是当我们告诉机器人时,就需要清楚地申明,我们的目标是:“在保存人类的前提下消灭癌症。”
1701071722
1701071723
另外,很多人习惯从今天还不够成熟的人工智能系统来推断未来的人工智能,自然也会得出不成熟的结论。而且,大多数人都不理解未来机器人会拥有的超智能是什么,超智能不同于我们以前见过的任何东西。举例来说,如果以后机器人能够理解人类的语言了,那意味着什么呢?意味着一个机器人在短时间内就能阅读和理解人类写过的任何东西了。一个正常人可能一周只能读一两本书,一生能读的书数量也是有限的,但是这台机器能读完世界上存在的所有书籍,关于物理学、生物学、化学、医学、历史、诗歌、爱情小说等的所有读本,人类所知道的一切它都能理解。
1701071724
1701071725
这样一台真正“博学”的超智能机器自然会想出很多你从未想过的东西,以你根本想不到的方式和计划帮你实现目标。但关键就是要让机器人准确理解目标到底是什么,赋予它一个具体化的目标。仅仅说“我是个聪明人,我绝不会为找出治疗癌症的方法而杀死世界上所有人”这样的话是没有用的。
1701071726
1701071727
现在有两个问题:第一,我们要花多长时间才能造出这样的超智能机器?第二,我们如何把这些机器控制在安全范围内,确保它们“循规蹈矩”?比尔·盖茨、埃隆·马斯克和我都认为,造出了超智能机器后,解决第二个问题就很关键,就要确保我们给机器人的目标高度符合人类的目标。
1701071728
1701071729
关于这一点,机器人首先需要明白,它们可能会得出一些解决问题的方案,但是人类可能会不认同。这种情况下,正确的做法应该是人和机器进行沟通。比如,如果想解决全球变暖问题,机器人需要去探索各种可能性,最终得出一个让人类信服的结论。
[
上一页 ]
[ :1.70107168e+09 ]
[
下一页 ]