1701549570
我们还没说舌头呢,这是个只能通过挤压来控制的无骨水气球。它能够把食物从后牙挤出来,又能像跳芭蕾舞一样发出“thrilling”(激动的)和“sixth”(第六)这样词的声音来。
1701549571
1701549572
“普通人对不普通的事情感到惊叹;智者对平凡之处感到伟大。”让我们谨记哲人的名言,来继续看看人类行为的平凡之处,但我们要换个新的视角,看看机器人设计师是怎样试图复制这些平凡之处的。假定我们已经能够设法建造一个能看能动的机器人了,那么,它看到以后会怎么做?它如何决定自己的行为?
1701549573
1701549574
一个智能生命不可能将所看到的任何事物都视为宇宙中独一无二的个体。智能生命必须将事物划分范畴,这样就可以将它艰难习得的,有关从前曾遇到过的相似事物的知识应用于新的事物了。
1701549575
1701549576
但是,只要人们试图列出一套规则标准来划分一个范畴成员的所属关系,这个范畴就会分化。且不说诸如“美”或者“相对主义”这样含糊不清的概念,我们来看看一个教科书上明确定义的概念——“单身汉”。当然了,单身汉就是指从来没结过婚的成年男性。但现在假设一个朋友请你邀请一些单身汉来参加她的聚会,如果你用这个定义来决定邀请下面哪些人,看看会怎样。
1701549577
1701549578
阿瑟在过去5年一直与爱丽丝愉快地生活在一起。他们有一个两岁的女儿,但两人一直没有在法律上正式登记结婚。
1701549579
1701549580
布鲁斯就要被征召入伍了,于是他打算和他的朋友芭芭拉请一名太平绅士为他俩主持结婚,因为这样他就可以免服兵役了。但他俩其实从未生活在一起过。布鲁斯谈过一些女朋友,并计划一旦找到他想娶的女孩,就宣布与芭芭拉的这次婚姻无效。
1701549581
1701549582
查理17岁,他现在在上高中,同父母住在一起。
1701549583
1701549584
戴维17岁,他13岁时离家创办了一家小企业,现在已是一名成功的年轻企业家。他住在阁楼式的公寓,过着花花公子般的生活。
1701549585
1701549586
埃利和埃德加是同性恋情人,两人生活在一起已经多年。
1701549587
1701549588
费塞尔根据其本族法律可以有3位妻子。他已经有了两位,目前正在寻找另一位可能的未婚妻。
1701549589
1701549590
格里高利神父是泰晤士河边一个小镇天主教堂的主教。
1701549591
1701549592
这份人员列表由计算机科学家泰利·维诺格雷德(Terry Wingograd)拟定,它说明“单身汉”的字面定义并不能概括我们对该范畴成员的直觉。
1701549593
1701549594
知道谁是单身汉只是一个常识,但常识一点儿都不平常。人脑或机器人脑中常识的形成也定不寻常。常识绝不是生活的年鉴,可以任由老师传授或像一个海量数据库一样能够下载。没有任何数据库能够列出所有我们知道的隐含事实,甚至没有任何人能够把这些隐含事实教给我们。你知道:当埃尔文把狗装进车里,狗就不会再在庭院里;埃德娜去教堂,她的头会随着她一起去;如果道格在房子里,他一定是通过某个开口进去的,除非他就在里面出生,之后再没离开过;如果谢拉早晨9点活着,下午5点也活着,她中午也一定活着;野生的斑马从不穿内裤;打开一罐新牌子的花生酱不会使整座房子蒸发;人们从不把测量腋温的温度计放到耳朵里;沙鼠比乞力马扎罗山要小。
1701549595
1701549596
一个智能系统不会仅仅填满海量的事实,它还需要具备一个清单列出少量的核心真理和一套相应的推导规则。但这种常识规则就像常识范畴一样,很难毫无争议地确定。即使是那些最显而易见的规则也经不起我们的日常逻辑推导。马维斯住在芝加哥,他有个儿子叫弗雷德;米利也住在芝加哥,他也有个儿子叫弗雷德。但尽管马维斯和米利都住在同一个城市芝加哥,马维斯的儿子弗雷德,却不是米利的儿子弗雷德。如果你车里面有个袋子,袋子里有一加仑牛奶,你可以说你车里有一加仑牛奶。但如果你车里有个人,那个人身体里有一加仑血,你要得出结论,你车里有一加仑血,这就很荒唐。
1701549597
1701549598
即使你试图制订的只是一套能推导出合理结论的规则,用这些规则来明智地指导行为也绝非易事。很显然,思考者不能一次只运用一个规则。火柴发光;锯子锯木头;锁着的门用钥匙打开。但要是有些人擦着火柴接近油箱,用锯子锯他坐着的凳腿,或者把钥匙锁在车里,然后花一个小时琢磨怎样让车里的家人出来,那我们就会嘲笑他们缺心眼。思考者不仅需要计算其行动的直接效应,还要考虑间接效应。
1701549599
1701549600
但思考者也不能事先预测到所有的间接效应。哲学家丹尼尔·丹尼特(Daniel Dennett)让我们去想象这样一个情景,一个机器人,我们派它去一个放有炸弹的房间取回一个备用电池。1号机器人看到电池放在一个拖车上,它想如果把拖车拖出屋子,电池就会带出来了;不幸的是,炸弹也在拖车上。1号机器人不能推导出拖出拖车也会带出炸弹。2号机器人考虑了它行动的所有间接效应。它刚刚算完拖出拖车不会改变房间墙壁的颜色,正在证明拖车上有轮子而轮子转圈时,炸弹就爆炸了。3号机器人能够将相关信息和无关信息区别开来。它坐在那儿盘算出上百万条内容,并把所有相关的信息列在待考虑的事实清单上,所有无关的列在要忽略的事实清单上,而这时炸弹的倒计时正在嘀嗒嘀嗒地逼近。
1701549601
1701549602
智能生命必须依照自己的所知信息尽量地进行思考,但只能是有关的信息。丹尼特指出,这项要求提出了一个深刻的问题,不仅针对机器人设计,而且是一个认识论的问题——对“我们如何知道”的分析。好几代哲学家都没有重视这个问题,他们自满地陶醉着,凭着自己的常识感想当然地以为此问题轻而易举。只是当人工智能的研究者们试图在计算机这个终极白板上复制这种常识时,这个难解之谜才浮出水面,现在这个难题被称为“框架问题”(frame problem)。尽管原因难解,我们只要运用常识,总能够解决这个框架问题。
1701549603
1701549605
阿西莫夫机器人3定律
1701549606
1701549607
假设我们想方设法克服了这些困难,已经有了一台具备视觉、运动协调和常识的机器人,现在我们必须搞明白,机器人怎么样才会运用它的这些能力。我们需要赋予它动机。
1701549608
1701549609
机器人应该想要什么?对这个问题的经典回答是艾萨克·阿西莫夫的机器人3定律。“这3条定律则深深地烙刻在机器人的正电子头脑中。”阿西莫夫强调。
1701549610
1701549611
1.机器人不能伤害人类,也不能由于不作为而致使人类受到伤害。
1701549612
1701549613
2.机器人必须服从人类赋予的指令,除非该指令有悖于第一条定律。
1701549614
1701549615
3.机器人必须保护自身的存在,只要这种保护行为不与前两条定律相冲突。
1701549616
1701549617
阿西莫夫富有洞见地认识到,保护自身,这一通用的生物定律,并不会自发地出现于复杂系统之中,而必须加以设计(本例中即第三定律)。毕竟,制造一个机器人让它跳到锅里或用自杀的方式来减少功能失灵并不难,这就像制造一个凡事力争第一的机器人一样容易。或许还更容易,机器人制造者们有时会惊恐地注视着,他们的作品欢欣雀跃地自断肢体或者向墙上撞去,世界上最智能化的机器很大一部分是敢死队式的巡航导弹和智能炸弹。
1701549618
1701549619
但为什么需要另外两条定律的原因则不那么清楚了。为什么要给机器人下道命令让其服从命令——原来的命令难道不够吗?为什么要让机器人不要造成伤害——难道最初就不让它们做出任何伤害不更容易吗?难道冥冥宇宙中有种神秘力量,会将所有的存在物都拖向恶意伤害吗?于是正电子的头脑必须设计为能够抵御这种力量,是吗?智能生命都会无一例外地产生一种态度问题吗?
[
上一页 ]
[ :1.70154957e+09 ]
[
下一页 ]