打字猴:1.70021695e+09
1700216950 但是,一旦在它们的情感清单中加入疼痛感,就会立即出现道德问题。很多人认为我们不应该给动物施加不必要的疼痛,对机器人,人们也可能有相同的感情。这就引出了机器人的权利问题。我们可能会颁布法律限制机器人要面对的疼痛和危险值。如果机器人做的是枯燥或肮脏的工作,人们并不会在意,但如果它们在从事危险工作时感到疼痛,人们可能就会开始提议立法保护机器人。这甚至会引起法律冲突,机器人的主人和制造商要求提高机器人能够忍受的痛感,而道德人士要求降低这种痛感。
1700216951
1700216952 这还可能会引发有关机器人其他权利的道德辩论。机器人可以拥有财产吗?如果机器人偶然伤害到人会怎么样?能够对机器人进行诉讼,对它们进行惩罚吗?在诉讼中由谁承担责任?机器人可以拥有另外一个机器人吗?这种讨论引出了另外一个棘手的问题:应该给机器人道德感吗?
1700216953
1700216954
1700216955
1700216956
1700216957 心灵的未来 [:1700213100]
1700216958 心灵的未来 道德机器人
1700216959
1700216960 最初,人们认为制作道德机器人的想法似乎是在浪费时间和精力。然而当我们意识到机器人会进行生死攸关的决策时,这个问题就有了紧迫性。由于它们体格强壮,有着解救生命的能力,它们有时就不得不针对先救谁做出快速的道德选择。
1700216961
1700216962 假设发生了一场灾难性的地震,儿童被困在一座快速坍塌的大楼里。机器人应该怎样分配自己的能量?它是否应该努力解救尽可能多的儿童?或年龄最小的?或最脆弱的?如果废墟残片太重,机器人的电子系统可能遭受伤害。所以机器人还要决定另外一个道德问题:它要在所解救的儿童数量与它自己能够承受的电子伤害之间做出怎样的权衡?
1700216963
1700216964 如果没有恰当的程序,机器人会停在那里,等待人类做出最后决定,从而浪费宝贵的时间。所以应该有人提前编好程序,使机器人能够自治地做出“正确的”决定。
1700216965
1700216966 这些道德决定应该在一开始就进入电脑程序,因为没有任何数学规律可以对解救儿童赋予价值概念。在这个程序中,应该有一个长长的清单,所列事项按照其重要性排序。这是一种令人生厌的工作。事实上,一个人学到相关道德准则可能要花一辈子的时间,但机器人要安全地进入社会,它们就必须很快学习这些内容,在它们离开工厂之前学会。
1700216967
1700216968 只有人能够完成这项任务,即便如此,道德问题有时还是会使我们迷惑。但这引出了下面的问题:谁来做决定?谁来决定机器人以怎样的顺序解救人类生命?
1700216969
1700216970 关于最终怎样做出这些决定的问题很可能由法律和市场共同解决。我们所通过的法律至少要囊括紧急情况下救人的顺序。但除此之外,还有成千上万个更为细微的道德问题。这些微妙的决定可以通过市场和常识做出。
1700216971
1700216972 如果你为一家负责重要人物安全的安保公司工作,你就会告诉机器人在不同情况下以怎样的顺序救人,要考虑的因素包括主要职责以及预算。
1700216973
1700216974 如果一个罪犯购买了一个机器人,并要求机器人犯罪会怎么样呢?这引出的问题是:在机器人被要求违法时,是否应该允许机器人反抗主人命令?我们从前一个例子看出,机器人的程序必须使其理解法律并做出道德抉择。如果它判定自己的任务是违法的,它就必须反抗主人的命令。
1700216975
1700216976 这里还有机器人反思主人的信念所引起的道德困境,主人可能有着不同的道德理念和社会标准。如果机器人能够思考主人的观念和信念,人类社会中的“文化战争”只会被放大。在某种意义上,这种冲突不可避免。机器人是其创造者的梦想和愿望在机械上的延伸,而当机器人已经复杂到可以做出道德抉择时,它们便真的会这样做。
1700216977
1700216978 当机器人开始表现出挑战我们的价值观和目标的行为时,社会中正确与错误的分界线可能会得到加强。刚刚离开一场喧闹的摇滚音乐会的年轻人,他们拥有的机器人会与附近安静社区中的老年居民拥有的机器人发生冲突。前面这些机器人的程序可能是放大乐队的音响,而后面的机器人却要把噪音水平降到最低。狂热虔诚的原教旨主义者所拥有的机器人可能会与无神论者拥有的机器人进行争论。来自不同国家和文化的机器人,它们的设计会反映各自社会的风俗习惯,而这也会发生冲突(先别说机器人,对人类也是如此)。
1700216979
1700216980 怎样对机器人编程来消除这些冲突呢?
1700216981
1700216982 无法去除。机器人只会反映其创造者的偏见。最终,这些机器人的文化和道德差异将不得不诉诸法庭审判。没有物理定律或科学法则能够判决这些道德问题,所以最后需要通过法律来处理这种社会冲突。机器人不能解决人类造成的道德困境。事实上,机器人只会放大这种困境。
1700216983
1700216984 但如果机器人能够做出道德和法律抉择,它们是不是也能体会并理解感觉呢?如果它们成功地解救了某个人,它们能不能感受到快乐?或者更进一步,它们能感觉到诸如红颜色这样的事情吗?冷静地分析救人的道德问题是一回事,理解、感觉是另一回事。机器人有感觉吗?
1700216985
1700216986
1700216987
1700216988
1700216989 心灵的未来 [:1700213101]
1700216990 心灵的未来 机器人会理解或感觉吗?
1700216991
1700216992 几个世纪以来,关于机器人是否能够思考、是否能够感觉,涌现了大量的理论。我自己的哲学是“建构主义”(constructivism),即不要没完没了地、无意义地争论这个问题,我们应该将精力投入到机器人制造中,看看我们能够达到什么样的水平。否则,我们就陷入了无休止的哲学思辨,问题无法得到最终解决。科学的优势在于,一旦所有事情都弄清做好后,我们可以进行实验来准确地解决问题。
1700216993
1700216994 所以,要解决机器人是否能够思考的问题,最终的方法是制造一个机器人出来。不过有些人认为,机器永远不可能像人一样思考。他们最有力的论据是,虽然机器人对于事实的处理要快过人类,但它并不能“理解”自己在处理的是什么。虽然它对感觉(如颜色和声音)的处理要好过人类,但它并不是真正地“感觉”或了解“经历”这些感觉的内涵。
1700216995
1700216996 例如,哲学家戴维·查默斯(David Chalmers)把人工智能的问题分为两类:简单问题和复杂问题。对他而言,简单问题是制造越来越会模仿人类能力的机器,如下棋、数字计算、识别某些图形等。复杂问题涉及制造可以理解感情和主观感觉的机器,这些被称为“可感受性”(qualia)
1700216997
1700216998 他们认为,这种情况与向盲人传达红色的意义一样,机器人永远不可能了解红色的主观感觉。或者,一台计算机可以很流利地将汉语翻译为英语,但它无法理解它翻译的是什么。在这个图景中,机器人就像光彩夺目的录音机或计算器,在准确记忆信息、处理信息方面的表现令人吃惊,但却没有任何理解。
1700216999
[ 上一页 ]  [ :1.70021695e+09 ]  [ 下一页 ]