1700858777
1700858778
阿尔都斯·赫胥黎的哥哥、生物学家朱利安·赫胥黎于1927年首度创造了“超越人类”这个词。赫胥黎用该词指代从“人”过渡到生存下一阶段的人类有机体,这被形容为后人类。我在本书中,只是简单地用该词表示人类积极参与了深刻变化的过程,而不一定是世界超人协会(World Transhumanist Association,即WTA)所用的那个严格意义上的词。WTA代表的是当代的超人类社会运动,又叫大写“T”的超人类主义。这场运动于20世纪60年代开始形成,尽管似乎萎靡不振,因为一小批大逆不道的思想家而鲜为人知,但因科学发现的惊人轨迹而势头见涨。本书要讲的是小写“t”的超人类主义在当今的具体发展,它把科技比任何时候都更深地嵌入人体,并呼唤对这些变化进行更深刻的考察。
1700858779
1700858780
融合技术及其相关问题的国际性十分重要,因为太多的创新不是由政府,而是由私人企业研发的,这个问题遍布全球。把新科技和融合技术商业化、扩散化的公司,本身也成为全球化的公司了。然而,每个国家的管理政策和伦理政策都不一样。中国认为可以接受的,英美可能不接受,反之亦然。截至目前,还没有一种放之四海而皆准的调控制度能认可大家互享的价值观,或保证全世界的人都能平等享受科技的最佳之处。
1700858781
1700858782
弗朗西斯·福山提到超人类主义时说,这是“世界上最危险的思想”。他在2004年的一篇著名文章中断言:“社会不大可能突然魅惑于超人类主义的世界观,但我们很可能会小口啮食生物科技提供的诱人祭品,而没有意识到其道德代价是很可怕的。超人类主义的第一个牺牲品可能会是平等。”我们就像本书开篇那位虚构人物维克多,在我们生命的某个节点,为了躲避某种危机,特别容易做出选择时,也很可能逐渐接受越来越多的新科技。但福山文中的说法则好像是,一切已成定局,那就是未来没有使用身体增强技术、身体不健康的人,相比使用了身体增强技术、身体健康的人,从本质上来说是不平等的。如果社会的某一部分人变得更强大、更聪明、更健康、更长寿,他便假定,人皆平等的理念就会被荡涤一空,未增强人群的权利也会荡然无存。然而,目前还根本不清楚的是,社会是否会描绘出一种更加深刻的品质,超越健康和能力,形成一种新认识的内核,从而予人以尊严。反过来说,无论我们接受多少增强技术,使我们之所以成为人的那些相同的核心属性(尚待充分明确的属性),依然是恒久不变的。
1700858783
1700858784
这场论争的中心问题是,人类的身份构成是什么。我们肉体的某些部位人工化之后,我们的身份是否会发生改变?如果我们以扩展记忆体或计算能力,来增强我们的大脑,学习通过直接的人脑与机器的交互,不用词语跟其他人交流,那又会怎么样?尽管历代哲学家就如何定义人类身份都提出了论证,但CTs为这一问题平添了一种额外的刻不容缓之感。人类身份是一种不可能改变的固定价值,还是一种不断演变的现象,对我们个人甚至对全人类来说也一样?从理想的角度讲,我们应该首先解决这个问题,再深入肉体增强和大脑增强的领域。然而,正如以往的情况那样,技术蛙跳般跃进,以不断增加的速度越过了哲学问题。完全有可能的是,随着时间的推移,技术增强会向我们展示我们的核心是什么,而不是我们此前预先定义的那些素质。具有讽刺意味的是,我们很可能要在人工增强了肉体和大脑,并将之提高到更高功能的程度之后,才有可能定义我们自己。
1700858785
1700858786
与人类能力增强技术并行不悖的,是机器人和人工智能开发方面的种种惊人突破。我们的命运很可能要与越来越有智慧和能力的机器共享了,这种机器甚至可能超过我们自己的智慧。我们命中注定要与这些机器人进行广泛交流,因为即使在今天,它们的能力都已越来越像人类,可以做日常工作,从为病人和老者提供基本的保健服务,到学习如何识别人类情感并做出相应的反应。为老人提供保健服务的机器人已经近在眼前,这种机器人的设计,目的在于与拥有者交流并从中学习,从而与之发展出独一无二、错综复杂的关系。我们不仅将仰仗机器人使用无数的功能,其中有些功能还是感情方面的,而且先进的机器人会接管越来越多的人类工作。
1700858787
1700858788
正如上面所指出的,科技进步的速度超过了道德、法律的调控对其控制的速度,这个事实令科学家、哲学家以及法律和医学人士压力倍增,因为他们正在CTs的前沿工作,目的在于描述这些科技进步的伦理用途。美国政府、欧盟和其他许多国家正在做出巨大的努力,对这类技术进行分析和指导。除此之外,生物伦理学在我们前一代几乎并不存在,但这个尚不成熟的领域现在已经站稳了脚跟,成为医学和新技术开发中的一部分,而且在政府开会讨论公共政策的桌边,也占有一席之地。我们面临的真正任务,是把这些争论纳入主流,让来自社会方方面面的更多的人能参与这场谈话。所有这些因素都代表着跨步前行的是正确方向,但依然有可能的是,哪怕本星球最聪明的人也无法预料,一旦强大而改变生活的技术释放出来,会有何种副作用和后果。
1700858789
1700858790
尽管得到广泛认可,生物伦理学的探索是医疗技术进步所不可或缺的,但反技术论点的核心,还有一个断言是需要进行考察的,即人性无论是上帝创造还是自然演进,都是固定不变的现象,不可能从过去的错误中学到任何东西。反技术的思想家们倾向于如此断言:一、人类是一个成品(对此,进化论的生物学家可能表示质疑);二、我们今日做决定的程度,与将来的也将一样。例如,即使我们扩大人类的知识和能力,我们也无法抵达新的理解高度,产生更先进的决策过程。事实上,我们今日无法知道,今后几百年中,我们的子孙后代会做出何种决定。我们也无法断言,这些决定会像久远的过去所做的决定那样,是愚昧无知、很有问题的。我们还必须考虑这样一个证据,即人类有能力从过去的错误中学习,文化和社会都能向着更开明、更民主的社会制度演变,比以前任何时候都更容忍,也更包容人类的多样性。
1700858791
1700858792
有一个现象对未来决策会有深刻的影响,即社会上会有青春洋溢、充满活力的上百万人,但寿命都超过了目前所能达到的程度。在整个人类历史上,各个社会基本上都缺乏个体通过多年的生活经验积累的智慧,因为大多数人的寿命都很短。总有一些人能够活到高龄,但绝大多数人都活不到。不妨考虑下这样一个事实,即在1900年的美国,平均寿命为47岁,而现在是78.8岁。年龄很大的人过去不仅稀少,而且都受着与有关老年疾病造成的多种残疾折磨,如心脏衰竭或老年性痴呆症。有关激进生命延长的一个很重要的开放式问题是,我们是否能够治疗或防止一些常见的老年病症。这些病症即使在今天,也能降低年过60的人的生活质量,带来令人崩溃的残疾。目前已达成广泛的共识,即在身体高度恶化的阶段延长生命,并不是一个大家欲求的目标。
1700858793
1700858794
太阳计算机系统有限公司(Sun Microsystems)的共同创办人比尔·乔伊曾指出,一些新崛起的技术中,如机器人技术、纳米机器人和工程生物等,本身就存在着某些危险,因为它们有能力复制自身。一旦把自我复制的机器开动起来,它们会不会利用所有的自然资源,把人类压倒?机器的自我复制必须加以控制,正如人类的生殖也必须加以控制一样,否则地球就会人流滚滚,无法支持人数众多、岁数过大的人群。乔伊指出的另一个危险是,由于网上知识无所不在的特性,制造具有巨大潜力技术的信息,终将能为人人取用,而这些人中会有一些用心险恶者,必欲为非作歹而后快。
1700858795
1700858796
据乔伊预估,2030年就有可能出现自我复制的机器人。请想象这样一个场景:一个机器人,通过程序设计,目的就是为非作歹,制造出一大批复制品,互相联机,胶着于一个目的,那就是根除人类。在这种情况下,人类制伏了危险的掠食动物后,将面对与掠食机器的斗争,而这些掠食机器可能极为有力。乔伊特别担心自我复制的纳米机器人,这种分子大小般的机器能极大地改善人体健康,防止衰老,并可以在失控的复制过程中,逃逸到自然环境中,把地球的资源都吸收掉,科学家和生物伦理学家称这个现象为“灰蛊”问题。到那时,全世界的资源都会被纳入一种复制纳米机器人的板块之中。考虑到纳米技术正在飞速发展,这就成了一个亟须考虑的问题了。然而,即使在今天,也有可供利用的纳米技术解决方案。例如,可设计出一旦完成任务——如消灭了癌细胞后——就可关机的纳米机器人,或设计出的机器人,用的是类似可降解医用手术缝线那样的聚合物材料。这些纳米机器人的存在,都要受到时间的限制,因此没有能力在身体或环境中累积起来。关键是,科学家在设计所有纳米机器人时,都要全面防范“灰蛊”问题。
1700858797
1700858798
乔伊重点提到了一个令人关注的问题,的确让人颇为踌躇,也就是这样一个事实,即CTs大多是由法人实体进行开发,其主要目的就是把新技术迅速商业化。尽管当今这类公司都有一个监督委员会,其中有生物伦理学家参与,但私企实体永远也不可能为美国食品药品监督管理局(FDA)这样的政府监督机构所完全控制。私人公司有强大的诱因,要领先把新技术专利化、商业化。这就意味着,他们不愿共享数据。以追求利润为目的的商业模式,在如此彻底改变一切的技术个案中,是不是最合适的模式,这也是值得一问的。进行调控要理智而且合理,这个问题是最重要的,而且要在全球市场中放之四海而共享之。为了保证普天下都遵守安全政策和规定,经济领域必须受到普遍的国际规章制度的制约。
1700858799
1700858800
今日还活着的许多人,都不得不亲自处理CTs的副作用,这种副作用好坏都有。例如,最近,科学家通过捕捉受试者大脑电脉冲,将其转换为电脑能够读取的信号,在受试者的大脑和电脑之间,达成了一种直接的界面。受试者发送了一个非常简单的信息——“动某根指头”,从网上发给了另一台电脑,电脑跟另一个人连接。接收者收到信息,就按指示动了动手指头。尽管这种操练很基础,但它证明,大脑可以与电脑连接并通过电脑跟其他大脑连接。虽然这种程序具有非常大的可能性,能让人们无论隔着多远距离都能直接进行联系,但这项技术也可能被滥用。如果直接的脑对网络和脑对脑连接能够建立,那么,当老板要求每位雇员与“公司网络”连接时,这样一种意识共享,会不会不仅入侵公司给“用户”大脑的信息,而且也会潜在地读取用户的思想呢?有关我们思想的性质,我们大家都共享的根本隐私权是什么呢?一旦该技术发展到更精密的阶段时,就会放弃自己拥有自己思想的权利了吗?政府和强有力的公司有能力把思想“种”在我们的大脑吗?
1700858801
1700858802
对有些人来说,一生中要完全或为了某种性命攸关的功能而仰仗人工智能技术,这本身就让人寝食不安了。目前尚不清楚的是,人工器官或神经移植器官这类人工部件,会被认为是接收者身体的一部分,还是植入该人身体的一个异物。鉴于人工移植器官的发展速度,这个问题又变得极为复杂,因为移植器官越来越与身体的自然过程结合一致了。尽管情况如此,我们还是会不断地碰到这个问题,即何谓“你”,何谓“非你”。
1700858803
1700858804
这一点在生命终结之时尤为关键。例如,能刺激体内无穷无尽地产生干细胞的技术,可以治愈大范围的疾病,或至少在很长时间内将其遏制。然而,这一天终会到来,即某种难以治愈的疾病过程,可能会把生活质量降低到不合意愿,甚至难以忍受的程度。这时,我们就会要求停止干细胞的产生。这个过程何时停止?如何停止?由谁来停止呢?这种疗法一旦停止,是否会被视为谋杀、自杀、安乐死,还是我们尚未命名的别的什么?尽管我们很不想终止人的生命,但直到目前为止,还无人能够逃脱死亡。据有些思想家,如雷·库兹威尔(3)预测,我们一旦成功地把我们的大脑上传到机器里,死亡就会根除。但就目前来看,要想达到长生不死,我们的路途还十分遥远。我们大多数人如果有选择的话,都会感激不尽地再度过几十年的健康岁月,但生物永生的希望可能最终还是徒劳无益的。事实上,目前迫切需要制定规则,中止先进技术的继续,包括向人体的移植,为的是能让人死也死得有情有义。
1700858805
1700858806
在现有技术状态下,有些问题可能无法回答。如果我们想以科学家和工程师能够想出的各种方式拥抱人类增强技术,那么我们是否会抵达生命期限、记忆或力量的自然限度呢?我们是否会简单地遭遇回报递减法则,不断地在一具精疲力竭、病魔丛生的肉体上修修补补,直到生命成为一件难以承载的负担呢?我们之中的每个人,是否都有权利在某一时间节点死去,哪怕这么做意味着要把与我们身体深刻整合的某种技术解除?与此同时,会不会出现一个非生物学生存阶段,我们愿意接受这个阶段,而不愿意接受死亡?如果出现这种情况,那会是什么样的情况呢?
1700858807
1700858808
一个很有意思的问题是,我们的身体是否有一部分不可能通过技术增强,而只能在生活体验的基础上演化。在这里,我想到的是智力、情感和精神等现象,这些也许技术永远都难以复制和加以改变。如果情况是这样,那所有先进的技术增强,即使用在不成熟的人身上,对人的生活质量或体验深度,都不可能带来很大的变化。我们也许永远都回答不了这个问题,直到我们在每一个层面都拥抱人类增强,看它到底能把我们引向何处。
1700858809
1700858810
超人类主义哲学家安德斯·桑德伯格(4)曾写道:“我们作为人而变化,不是因为我们对我们是什么而不感到幸福,而是因为我们想变得更好。自我变化不是寻找某种想象的完美无缺状态,像人们有时暗示的那样,而是一个开放式的过程。随着我们作为人而成长,我们的理想和价值观也在成长和变化。”正是因为我们对更好状态永远在寻找的这种开放式性质,要想预测千年之后、500年之后,甚至哪怕是200年之后人类会是什么样子都太难了。我们今天珍视的价值观,对生活经验程度远高于我们今天的人来说,也许一点儿也不重要。另外,未来技术时代仍将持续的那些价值观,则可能达到更大的确认度。例如,如果人人因为基因工程个子都很高、身体消瘦,而且长得很美,那么,长得很美就可能不再像今天那样是很值得追求的了,因为它已司空见惯。我们的价值观可能转向一种不同的审美标准,或者转向完全不同的东西。我们目前对内在美的价值观——这个观念更要难以捉摸得多——可能会存活下来,甚至会得到加强。问题是:合成技术会不会从根本上令人类和人类生活发生质变,还是不过产生了大量我们已经拥有的素质?
1700858811
1700858812
本书所讨论的撰写先进技术的生物伦理学家们,几乎无一例外地要求,要先把焦点集中在某些具有持久性(虽然也具有演化性)的价值观上,然后才能接受可能会威胁这些价值观的变化。此处介绍的每一种技术,至少都有潜能,可威胁我们最珍视的一些价值观,其中包括人类尊严、自由、平等、个性、民主、隐私和自主等。其中有些会威胁我们就诸项问题做出自己决定的能力,如我们所熟悉的死亡方式那样的问题。我们有权拥抱、拒绝或限制我们肉体和大脑产生的深刻变化,但我们能在多大程度上拥有这种权利,也存在着诸多问题。在一个能力大大增强、生命非常持久、绝大多数人都拥抱了这种现象的世界里,人是否真的可以选择不接受增强?要是人数虽少,但意义重大的一批人没钱享受技术增强,或决定对之加以摒弃,那怎么办?这些人代表的是处于劣势的底层阶级吗?那社会上的其他人将如何对待他们呢?
1700858813
1700858814
正如维克多的故事所表明的那样,我们面临的问题是,它不仅要求与机器进行更多的交流(就像我们与手机交流那样),而且也要求与机器进行实际融合,达到这样一种程度,以致我们的身份是什么,都要加以阐释了。柯特尼·S.坎贝尔领导的一组生物伦理学家,在2007年的《剑桥保健伦理季刊》中说:“也许,到了某一个节点时,机器这个‘他者’,可能越来越难以与有血有肉的‘自我’区分开来。麻省理工学院人工智能实验室主任罗德尼·A.布鲁克斯说:‘尽管我们在过去50年中一直都要依靠机器,但我们要在新千年的第一个阶段,让机器成为我们身体的一部分。’”计算机芯片和电子阵列移植,如今已有可能为器官受损者恢复视力、听力、运动能力和记忆。它无疑会演化成技术,扩大感觉,延伸记忆和学识,远远超过我们当前的“正常能力”。认为这个过程不可避免的一个理由是,所谓“正常”是很难加以定义的一个概念。
1700858815
1700858816
尽管科学家和哲学家仍在继续争论“正常”的定义问题,但我们关于何谓“正常的观点”,很可能会扩展到把普遍为人接受的性能增强技术囊括进来的地步。如果生物医学在未来的进展也按过去几十年中所综合、所接受的方式进行,那大多数人就很可能会迫不及待地拥抱视网膜移植、麻痹肌肉的功能性电刺激、人造器官,包括海马体之类的人造脑结构——人工耳蜗等技术,以及一大批通过脑机交互而获得的新能力。这一切貌似可能的理由是,目前已在介绍这些技术,将其作为能够救生、延长生命的修理机制,其依据是为盲人恢复视力,为老年性痴呆症患者恢复记忆力,因为我们的生死感、对死亡和残疾的恐惧等,也许是最欲罢不能的驱动力。如果治愈眼盲是一件好事,那么,延长人的视力,囊括红外光,想必是更好的事。军事研究过程中开发的多种先进技术(如输血技术就是在战场上研发的),历史上是如何轻而易举地转为民用,只需考虑一下这个就行了。在战争的情况下,我们是否会犹豫,不肯让战士拥有无目镜红外观测、超强听力、记忆力和注意力增强呢?一旦这些技术在军事上被广泛运用,又有什么能阻止它们在平民人口中广泛运用呢?
1700858817
1700858818
我们在保健领域所接受的一切,几乎肯定会进入增强领域。假如有选择的话,让孩子接受基因疗法,消除某些衰老基因,让孩子的生命和健康得到急剧延长,父母亲怎么会不愿意做呢?“正常”和“比正常更好”这两者之间的界限已经模糊起来。随着生物技术把更多的人工干预纳入我们肉体的细胞和组织中,“正常”和“人工”之间的界限何在呢?
1700858819
1700858820
随着我们逐渐成长,大脑和肉体纳入了更多的人工干预,我们就会把我们与“活”环境和“智性”环境进行界面交流的程度大大加深,因为我们已经把无线运算、GPS和其他技术与几乎所有普通的消费对象结合了起来。我们将不费吹灰之力,就能与我们的“智能居家”进行交流。而我们的“智能居家”,可通过生物感应器和肉体移植的计算机芯片、无人驾驶汽车、能对我们的存在进行自动回应的设施和环境安全特色,以及能持续监测我们生命特征、需要,甚至情绪的可穿戴电子设备等,对我们的存在进行回应。这些技术与以生物学为基础的识别技术,如视网膜扫描和移植识别芯片等一起,将会使日常生活变得更加简单,就像环境变得更为“友好”得多一样。很可能,我们很快就将如此依赖智能环境,而不太明白为何从前没有这个环境居然也活了下来,正如我们今天会对过去没有电子邮件和智能手机的生活感到惊讶一样。
1700858821
1700858822
但是,把一切——包括肉体和大脑都电脑化是有风险的,而我们的隐私和自主正面临前所未有的危险。这是因为有关我们、我们的行为、我们的习惯,潜在地来说甚至我们的思想,都会被数字化,在某个地方被记录下来、储存起来。如果我们的“智能”衣服能持续不断地给医生提供有关我们生命特征的信息,这方面的信息就会储存起来,并有被“黑客”侵入的潜在可能性。在以市场为基础的经济社会中,这些信息甚至可能被卖给保险公司和其他商家,或者卖给某个潜在的老板。如果我们对谁能检索我们的个人信息进行大规模的调控和限制,这种信息也可能免费向政府提供。很快,有关我们的一套巨大而详细的资料就会存在。而目前来说,我们并不能保证能够掌控这种信息,因此有些人只要有可能,就愿意放弃使用许多新的技术。不过,在接受多重监测技术的过程中,阻力会非常小,甚至有些情况下,这个进程是难以避免的。例如,不妨假定机场安全系统可能会发展到要依靠要求所有人都移植“身份识别芯片”,以便进行读取和清关,才能让人登机的程度。如果想过一种正常的生活,可能有必要完全拥抱某些技术。
1700858823
1700858824
我们通过综合技术,已经踏上了消除大量人类痛苦的道路,但并非所有的人都欢迎这种想法。生物伦理学家的一个重大担忧是,假定从肉体和精神上完全消除痛苦,人类是否真的幸福。在整个历史中,关于痛苦和不幸如何有潜能,可造就值得赞赏的性格特征,如对他人的同情和怜悯等,书写此类的材料早已汗牛充栋。英国生物伦理学家Y.J.厄尔登指出,如果患者有自我意识,而且爱好寻求真理的话,即使得了抑郁症,也具有超验价值。她写道:“我们的身份,是由多种可能引起痛苦的经验或情感而形成的,如抑郁症和痛失亲人等。”天主教伦理学家特别倾向于认为,痛苦是有救赎价值的。而这些思想家与厄尔登所称科学家的“技术乐观主义”形成了鲜明对照。科学社区还有一种值得注意的倾向,喜欢以简化论的方式思考人类经验,认为人类经验不过是人脑的化学和电子过程总和。而且,伴随着这种倾向,还有一种期望,希望人类的大多数痛苦都能加以改善。进而言之,应该加以消除。
1700858825
1700858826
很难对这种看法提出异议,但根除疾病、增强人类能力,是否就肯定会提供人类始终在寻找的那种难以捉摸的幸福状态,这一点目前尚未得到证明。科学证明,我们总在一成不变地把每一种改善的状况吸收进我们的生活,然后成为一种“新常态”,把构成幸福的界限进一步向前推进。如果假定有这样一个世界,把疾病彻底根除,人人获得永生,生活再也没有任何逆境,包括失望、挫折感、孤独感和对意义的渴求等,那似乎是很不现实的。
[
上一页 ]
[ :1.700858777e+09 ]
[
下一页 ]