1704608630
1704608631
假设两个人,A和H,他俩结婚了并且希望婚姻能天长地久。但是A在家里做的事越来越多,同时变得更加呆板和顽固、不能容忍错误、不愿意改变,H刚好相反,变得更加懒惰、越来越依赖A。这样的结果就是两者的不平衡,A最终影响了两人的关系,并扭曲了H的行为,虽然A不是有意为之。如果二者的婚姻关系能继续维系,那都是因为A的谨慎经营。
1704608632
1704608633
在这个比喻里面,人工智能和智能技术扮演的就是A的角色,而人类就是H。这样做的风险在于:通过对世界设定边界,技术可能会塑造我们的物理环境和精神世界,并强制我们去适应它们,因为这是让世界继续运行下去的最好或者最简单的办法,事实上某些时候也是唯一的办法。所以人工智能将成为婚姻中呆板却付出得更多的一方,而人类则是聪明但懒惰的一方。如果不考虑离婚这个选项,那又应该是谁去适应谁呢?你可能会记得现实生活中有很多类似的例子,有时很多事情根本做不好,或者只能用一种很笨的方法来做,但对于计算机系统来说,这是它们完成任务的唯一方法。就像英国喜剧小品《小不列颠》里面的卡罗尔·贝尔一样,对于客户的请求总是说“电脑说不行”。
1704608634
1704608635
更重要的是,这些越来越智能的技术不断地在我们的生活中涌现,已经深深地影响到我们对自己和这个世界的看法。关键在于我们的机器并没有意识或者智慧,它们不能像我们一样理解或者认知某些事情。
1704608636
1704608637
有很多研究结果表明计算具有一定的局限性,可以证明:对于“不可判定问题”,不可能找到一种算法总能得到确切的“是/否”答案。我们知道计算机是满足“柯里–霍华德同构”的,这种同构关系显示逻辑推理证明系统与计算机模型在结构上是类似的,所以任何逻辑上的限制也同样存在于计算机程序上。大量的计算机集群可以做很多惊人的事情,包括在跳棋、国际象棋、围棋等棋牌游戏以及电视智力节目《危险边缘》中打败人类。一切皆有可能。但是,这些计算机都是某种类型的图灵机,这种抽象计算模型(图灵机)已经限定了计算机通过数学逻辑所能做到的事情的极限。即使量子计算机,也同样在计算上受制于这种限制(所谓的可计算函数),图灵机不可能像变魔术一样产生有意识、有智慧、有意义的实体。
1704608638
1704608639
关键在于,由于有大量的可用数据、能够相互交互的复杂程序(如能跨不同平台同步的数字日记本),智能技术能够比我们更好地完成越来越多的工作,包括对我们的行为进行预测。所以人类不是唯一能成功完成工作的实体,远远不是。这就是我定义的人类自我认知的“第四次革命”。哥白尼革命之后,我们不再是宇宙的中心;达尔文革命之后,我们不再是生物王国的中心;弗洛伊德之后,我们不再是自己精神世界的中心。图灵之后,我们将不再是“信息圈”、信息处理和智能代理世界的中心。我们与其他数字技术一起共享“信息圈”。
1704608640
1704608641
它们不是某些科幻小说里面具有超级智能的小孩,而是能在越来越多的工作中比我们做得更好的、普通的人造物,虽然它们并不会比烤面包机更聪明。它们的能力让我们感到自卑,让我们重新审视人类的特殊性,以及在宇宙中扮演的、仍是独一无二的特殊角色。我们认为自己是聪明的,因为我们会下棋,但现在一部手机就能战胜围棋大师;我们认为自己是自由的,因为我们能买自己想要的东西,但现在一个很小的设备就能预测我们的消费模式,甚至引导我们。
1704608642
1704608643
这对于我们的自我认知到底意味着什么呢?技术的成功在很大程度上依赖于这样一个事实:当我们在推测超级智能的可能性的时候,我们不断地用更多的设备、传感器、应用和数据来为这个世界设置边界,使其成为一个信息技术友好型的环境,从而让技术可以在不需要有任何理解力、动机、解释力、情感状态、语义技能、知觉、自我意识以及弹性智能(如把鞋子视为钉钉子的锤子)的情况下就可以取代我们。拥有算法和数据集的内存,在控制飞机降落、寻找从家里到公司的最短路径,或者查找你想购买的冰箱的最优价格等方面都会表现出更强大的智能。
1704608644
1704608645
因此,智能技术能够更好地完成任务,但这并不意味能够更好地进行思考。数字技术不能进行思考,更别说比我们更好地思考。但它们可以在越来越多的事情上比我们做得更好,通过处理不断增加的数据输入,分析它们自己的输出并作为下一次输入来提高它们的性能,这就是所谓的机器学习。阿尔法狗——谷歌DeepMind开发的一个计算机程序,打败了世界上最好的围棋选手李世石,因为它的数据库里面有3000万步棋着,并能够与自己对弈几千局,每次都“学习”一点如何提高自己。这就像一个双刀系统,能够自己打磨自己。但是我们想一想,如果在比赛中发生了火灾报警会怎么样:李世石应该会立即停止比赛并离开,但是阿尔法狗应该还会继续计算下一步该怎么走。
1704608646
1704608647
区别在哪里呢?这就像洗碗时,你与洗碗机的区别一样。这将带来什么后果呢?关于人工智能的任何末日启示录都可以忽略。真正的风险并不是某些超级智能的出现,而是我们有可能会滥用数字技术,给大部分人和整个地球带来危害。
1704608648
1704608649
小心人类
1704608650
1704608651
在任何可预见的未来,人类仍然并且应该是问题所在,而不是技术。这也是为什么我们应该在暗室里面打开灯、对我们前进的方向仔细斟酌。虽然没有怪物,但是会有很多障碍需要我们绕开、移除或者商议。我们应该担心的是真实存在的人类的愚蠢,而不是假想的人工智能。问题的所在不是人工智能,而是人性。
1704608652
1704608653
所以我们应该把精力专注于真正的挑战。最后我总结了以下5条结论,它们都同等重要:
1704608654
1704608655
•我们应该确保人工智能是环境友好型的。我们需要最智能的技术来解决人类和地球遇到的各种麻烦,从自然灾害到金融危机,从犯罪、恐怖主义、战争到饥荒、贫穷、无知、不平等和令人触目惊心的生活条件。例如,有7.8亿人无法获得清洁的饮用水,有将近25亿人没有基本的医疗保障。每年有600万—800万人死于各种灾害以及与水相关的疾病。这才是我们面临的最大威胁之一,而不是人工智能。
1704608656
1704608657
•我们应该确保人工智能是人类友好型的。就像康德所说的一样,人工智能应该把人类始终视为目的,而不是手段。
1704608658
1704608659
•我们应该让人工智能为人类工作。数以百万的工作将被瓦解、消失,同时也会有新的工作出现。这种转变的好处应该由大家共同分享,成本由社会共同承担,因为以前从来没有这么多人需要经历这么剧烈和快速的转型。农业革命用了上千年的时间来完成其对社会的全面影响,工业革命也经历了几个世纪,但是数字革命仅仅用了几十年。这也难怪我们会感到困难和措手不及。
1704608660
1704608661
•我们应该充分利用人工智能的预测能力为人类的自由和自主权工作。营销产品、影响行为、鼓动群众,或者打击犯罪和恐怖主义,所有这些都不能损害人的尊严。
1704608662
1704608663
•我们应该利用人工智能让我们更加人性化。存在的严重风险是我们可能会滥用智能技术。温斯顿·丘吉尔曾经说过,“我们塑造了我们的建筑,之后我们的建筑塑造了我们”。这同样适用于“信息圈”和身处其中的智能技术,所以我们现在最好确保它们是正确的。
1704608664
1704608665
[1]本章作者为卢西亚诺·弗洛里迪。
1704608666
1704608667
1704608668
1704608669
1704608671
超级技术:改变未来社会和商业的技术趋势 第14章 数据驱动的世界[1]
1704608672
1704608673
大规模的、创新的、无处不在的数据应用将使得很多事情变得更容易、更便宜、更丰富。
1704608674
1704608675
清晨你在床上醒来,你的私人助理机器人就盘旋在空中伺候你吃早餐:蛋白质丸和浓缩咖啡片。你打了一个呵欠,天花板上的呼吸传感器就可以进行生物化学方面的数据分析,检测你是否生病了。然后你可以穿上自动驾驶的喷射飞行包去公司上班。
1704608676
1704608677
醒醒吧!上面只是科幻小说中的场景。但是在未来30年,随着人工智能技术的触角深入人们生活的方方面面,有些根本性的变化正在发生。企业和社会的各个方面都将受到数据的影响,就像过去30年,计算机和互联网带来的影响一样。
1704608678
1704608679
科学的现代革命始于1638年伽利略的“对话”[2],他提出,所有的自然现象都可以用数学语言来表示。因此,通过收集和分析太阳底下所有这些活动产生的数据,就能更好地理解和优化这些活动,一个新时代也会随之到来。信息将被视为必不可少的资源,19世纪由蒸汽驱动,20世纪由石油驱动,21世纪将由数据驱动。
[
上一页 ]
[ :1.70460863e+09 ]
[
下一页 ]