打字猴:1.700216923e+09
1700216923 心灵的未来 [:1700213098]
1700216924 心灵的未来 未来机器人会说谎吗?
1700216925
1700216926 一般情况下,我们会认为机器人总是冷冰冰地进行分析,富于理性,总是说真话。但是,如果要机器人融合到社会中,它们就可能必须学会说谎,或至少有策略地保留自己的意见。
1700216927
1700216928 在生活中,我们一天会遇到好几次必须说善意谎言的情况。如果别人问我们,他们长得怎么样,我们一般不敢说实话。善意的谎言就像润滑剂一样,能够使社会的运转更平滑。如果要我们突然完全说真话(就像《大话王》[Liar Liar]中金·凯利[Jim Carry]的角色),很可能会造成混乱,并伤害别人。如果你告诉别人他们的真实模样,或者你的真切感受,他们会觉得受到冒犯,老板会炒你的鱿鱼,情人会抛弃你,朋友会离你而去,陌生人会给你一巴掌。一些想法最好还是藏在心里。
1700216929
1700216930 同样,机器人可能也需要学习说谎或隐瞒事实,不然它们就会冒犯人类,被主人解雇。如果机器人在聚会上说实话,这可能让主人十分难堪,造成混乱。所以,如果有人询问它的意见,它应该学会闪烁其词,学会外交辞令和策略性语言。它要么回避问题,改换话题,说些陈词滥调,用问题回答问题,要么就说善意的谎言(这些都是现在的聊天机器人所擅长的)。这说明,机器人的程序中已经有了一张如何做出逃避性回应的清单,必须从中选择一种使事情最为简化的回应。
1700216931
1700216932 需要机器人完全说真话的少数场合之一是对主人的直接提问进行回答,主人可以理解这个答案可能真实而残酷。或许仅有的另外一个需要机器人说真话的场合是警察办案的时候,这时需要完全的真相。除此之外,机器人可以自由地说谎,或者隐瞒事实。这样,社会的车轮才会顺利转动。
1700216933
1700216934 换句话说,机器人必须社会化,就像十几岁的青少年一样。
1700216935
1700216936
1700216937
1700216938
1700216939 心灵的未来 [:1700213099]
1700216940 心灵的未来 机器人能感觉到疼痛吗?
1700216941
1700216942 我们一般会给机器人安排枯燥、肮脏或危险的工作。机器人没有理由不做无休止的重复或肮脏的工作,因为我们不会给它们编入感觉到枯燥或厌恶的程序。真正会产生问题的是当机器人面对危险工作的时候。这种情况下,我们会希望对机器人编程使它能够感觉到疼痛。
1700216943
1700216944 我们进化出痛感,是因为它能帮助我们在危险环境中存活。儿童如果生下来就没有感觉疼痛的能力,这是一种基因缺陷,称为先天性无痛症。表面看来,这似乎是一种福分,因为儿童在经历伤害时不会感到疼痛,但事实上这更是一种诅咒。患这种病的儿童会遇到严重的问题,比如咬掉自己的舌头,皮肤严重烧伤,割伤自己,有时会导致手指截肢。疼痛使我们对危险保持警觉,告诉我们什么时候从燃烧的炉子上把手拿开,什么时候停止带着扭伤的脚跑步。
1700216945
1700216946 某些时候,机器人的程序设计也应该使它感觉到疼痛,不然它们将不会知道什么时候躲避危险。它们必须具有的第一种疼痛感是饥饿(即渴望得到电能)。当电池用尽时,它们会变得绝望、着急,意识到不久自己的电路就会关闭,自己的所有工作会陷入一团糟。它们越是接近没电,就越发焦虑。
1700216947
1700216948 同样,不管它们有多么强壮,机器人也会偶然遇到所搬运的物体太重,可能把肢体弄断的情况。或者,它们在钢铁厂的工作会接触到熔化的金属,或者进入燃烧的大楼去帮助消防员时可能会遭遇过热。温度和压力传感器会警告它们自己的设计规定已经被突破了。
1700216949
1700216950 但是,一旦在它们的情感清单中加入疼痛感,就会立即出现道德问题。很多人认为我们不应该给动物施加不必要的疼痛,对机器人,人们也可能有相同的感情。这就引出了机器人的权利问题。我们可能会颁布法律限制机器人要面对的疼痛和危险值。如果机器人做的是枯燥或肮脏的工作,人们并不会在意,但如果它们在从事危险工作时感到疼痛,人们可能就会开始提议立法保护机器人。这甚至会引起法律冲突,机器人的主人和制造商要求提高机器人能够忍受的痛感,而道德人士要求降低这种痛感。
1700216951
1700216952 这还可能会引发有关机器人其他权利的道德辩论。机器人可以拥有财产吗?如果机器人偶然伤害到人会怎么样?能够对机器人进行诉讼,对它们进行惩罚吗?在诉讼中由谁承担责任?机器人可以拥有另外一个机器人吗?这种讨论引出了另外一个棘手的问题:应该给机器人道德感吗?
1700216953
1700216954
1700216955
1700216956
1700216957 心灵的未来 [:1700213100]
1700216958 心灵的未来 道德机器人
1700216959
1700216960 最初,人们认为制作道德机器人的想法似乎是在浪费时间和精力。然而当我们意识到机器人会进行生死攸关的决策时,这个问题就有了紧迫性。由于它们体格强壮,有着解救生命的能力,它们有时就不得不针对先救谁做出快速的道德选择。
1700216961
1700216962 假设发生了一场灾难性的地震,儿童被困在一座快速坍塌的大楼里。机器人应该怎样分配自己的能量?它是否应该努力解救尽可能多的儿童?或年龄最小的?或最脆弱的?如果废墟残片太重,机器人的电子系统可能遭受伤害。所以机器人还要决定另外一个道德问题:它要在所解救的儿童数量与它自己能够承受的电子伤害之间做出怎样的权衡?
1700216963
1700216964 如果没有恰当的程序,机器人会停在那里,等待人类做出最后决定,从而浪费宝贵的时间。所以应该有人提前编好程序,使机器人能够自治地做出“正确的”决定。
1700216965
1700216966 这些道德决定应该在一开始就进入电脑程序,因为没有任何数学规律可以对解救儿童赋予价值概念。在这个程序中,应该有一个长长的清单,所列事项按照其重要性排序。这是一种令人生厌的工作。事实上,一个人学到相关道德准则可能要花一辈子的时间,但机器人要安全地进入社会,它们就必须很快学习这些内容,在它们离开工厂之前学会。
1700216967
1700216968 只有人能够完成这项任务,即便如此,道德问题有时还是会使我们迷惑。但这引出了下面的问题:谁来做决定?谁来决定机器人以怎样的顺序解救人类生命?
1700216969
1700216970 关于最终怎样做出这些决定的问题很可能由法律和市场共同解决。我们所通过的法律至少要囊括紧急情况下救人的顺序。但除此之外,还有成千上万个更为细微的道德问题。这些微妙的决定可以通过市场和常识做出。
1700216971
1700216972 如果你为一家负责重要人物安全的安保公司工作,你就会告诉机器人在不同情况下以怎样的顺序救人,要考虑的因素包括主要职责以及预算。
[ 上一页 ]  [ :1.700216923e+09 ]  [ 下一页 ]