打字猴:1.701561929e+09
1701561929 撰写此书的当下,日常生活中最先进的人工智能莫过于GPS(全球定位系统)地图软件了。GPS设备在20世纪90年代和21世纪初变得越来越普遍。2007年,智能手机一经问世即内置了GPS,它们可谓无处不在。当你开着车,这些强大的小小系统规划出最佳路线,并视觉化地呈现出来,依据当前交通状况,或你是否错过了转弯的路口来更新它们的提示,它们甚至会跟你说话。它们的能力超乎寻常,以至彻底改变了我们大多数人的导航模式。它们甚至改变了,主要是改善了许多关系:夫妇们不再需要为了是否应该停车问路而拌嘴。
1701561930
1701561931 但请注意哪些事是这等惊人的机器们不会做的:它们不会因为你正在不情不愿地开车去父母家就决定选择一条远路。它们不会为了观赏今晚分外美丽的日落而选择沿湖的路线。它们不会因为今天交通状况太糟糕而建议你最好待在家里别出去。想要它们做这些也可以,但必须预先将其编入程序中。它们没有读心术来弄清楚你的意图即你的目标和期望、你打算怎么达成目标、满足期望。然后,这些将变成技术自己的意图,以想出那些新颖的点子。它们无法与你共享意向来追寻共同的目标。
1701561932
1701561933 我们无法与技术达成共识,从某种意义上讲,这是因为机器和使用者之间除了最基本的判断以外,并没有在所知和所做方面达成任何共识。机器会问你的目标是A、B还是C,并根据答案给予恰当的回应。但你不能临时想到一个新主意就让它跟着你的意向走。你跟机器之间可以建立一种默契,机器将尽己所能帮助你追寻目标。但你需要确保你已经告诉它你的目标是什么。机器不是合作者,它只是一个工具。从这个角度来说,身为工具的人工智能更像一台微波炉而不是实实在在的人。技术可能借由提供信息和有用的设备在知识共同体中占有一席之地,但它不同于共同体中的人类成员的角色。我们的机器就像绵羊一样,我们并不与之共事,我们只是利用它们。
1701561934
1701561935 共享意向的能力在一个智能体当中至关重要。语言以及概念化等核心功能都仰赖于此,因为正如我们所见,两者都是合作性活动。我们怀疑很难通过编程让一台计算机与你共享意向,因为这样做要求计算机能够与他者相辅而行,它得了解你知道些什么以及别人知道些什么,这需要一种能够反思自己与他人认知过程的能力。这种能力尚无法通过编程写入计算机。倘若真能实现,我们将会揭开人类意识的神秘面纱。然而,我们至今还对此毫无头绪。
1701561936
1701561937 我们正处于技术史上的尴尬时刻。几乎我们所做的一切都可以由人工智能来实现。机器已足够聪明,让我们放心地依赖它们,将它们摆在知识共同体的中心位置。然而,没有哪台机器具备那种对人类活动至关重要的神奇能力:它们无法共享意向性。这影响着人类与机器共事的方式。
1701561938
1701561939 当代人机系统的一个重要功能在于挽救生命,它们做得相当不错,特别是在它们还没把我们干掉的时候。现在哪里还有单凭人工操控的飞机、火车和工业设备。它们的运作早就离不开复杂技术的加持,连司机对汽车的控制都变少了。今天,每辆汽车大约装有50个微型处理器。10有些用于确保你行车舒适并与卫星相连,提供实时的娱乐服务。还有许多处理器在帮你操控汽车:动力转向系统会利用计算机调整你在不同行驶速度下所需的动力,防抱死制动器也使用计算机来防止轮胎打滑。而自动化革命才刚刚开始而已:全自动驾驶汽车已不再仅仅是科幻小说里的桥段。2015年年底,特斯拉汽车公司的首席执行官埃隆·马斯克表示,全自动技术大约将在两年内趋于成熟,尽管在无人驾驶汽车布满街道之前,政府监管部门可能还需要更长的时间来拟定相关法规。11
1701561940
1701561941 对更大型的交通工具而言,技术早已改变了游戏规则。没有自动飞行控制系统的辅助,现代客机根本飞不起来。最先进的军用喷气式飞机使用的是电传操纵系统:由于变数太多,它们需要一套在多数情况下比人工操作员感知和反应更快的自动化系统来控制飞行。我们对智能技术的依赖引向一条悖论。随着技术的更新,智能技术变得越发可靠和高效。也正因为它的可靠和高效,人工操作员也开始对其越发依赖。最终,人类无法集中注意力,变得心烦意乱,干脆让机器自行运转。可能发展到的最极端的情况是,驾驶大型客机或将变成一种消极被动的职业,就像在看电视一样。只要不发生意外,这样也挺好。但人类的价值也正体现在意外发生的时刻;处理突发情况的灵活性乃人类所独具的特质。机器不会为了追求一个共同的目标而彼此合作,它们仅仅是工具罢了。因此,一旦人工操作员监管不力,机器系统很可能引发严重事故。
1701561942
1701561943 自动化悖论指的是极其有效的自动安全系统导致了人们对其的依赖,而这种依赖削弱了人工操作员的作用,从而导向更大的险情。已相当复杂精密的现代技术正在这条路上越走越远。自动安全系统正在改进之中。随着它们变得愈加复杂,并且额外追加了提示和备用系统,它们也被开发出越来越多的任务。一旦自动安全系统失效,将会铸成更大的灾难。讽刺的是,飞机、火车和工业设备上的自动化系统会让其整体都岌岌可危。12因为技术并不了解系统所要实现之目标,它无法与人类共享意向性,总会出差错的威胁从未消失。当技术失效而人类毫无防备之时,灾难会随之降临。
1701561944
1701561945 这里有个典型的例子:当飞行器的空速不足以产生足够的升力让飞机保持在飞行状态时,飞机会发生失速。一旦失速,飞机基本上就是从空中坠落的。一种让飞机从失速中复原的办法是,压低机鼻,增大引擎功率,直到飞机的空速能产生足量的升力用以保持机身高度。改出失速状态乃是航校里的预备飞行员们应该掌握的最基本技能之一。这就是为什么2009年因坠海事故导致228人丧生的法航447的黑匣子找到后,空难调查人员如此震惊。空客A330发生失速并从空中坠落。副驾驶员莫名其妙地曾试图将机鼻上拉而不是下压。这怎么可能?美国联邦航空管理局于2013年出具的报告认为,飞行员已过度依赖自动飞行控制系统,缺乏基本的手动操作技能,这使他们无法应对异常情况。在这个案例中,机组人员可能根本没有意识到这架飞机有可能发生失速,也未能正确地理解设备发出的警示信号。这是一则自动化悖论的绝佳案例:飞机的自动化技术如此强大,以致当它出错时,一组飞行员居然手足无措。13
1701561946
1701561947 拜GPS设备的泛滥所赐,你或许也体会过自动化悖论。有些人完全听命于GPS发出的指令,让往哪里走就往哪里走,却很容易忽略GPS设备并不真的了解你想要干什么。由于人们一味地遵从GPS的指示,把车开进水里以及开下悬崖的故事数不胜数。14
1701561948
1701561949 1995年,“御皇”号游轮航行在马萨诸塞海岸的南塔克特岛附近。15原本连接船载GPS和船上天线的电缆被风吹断了。不幸的是,船员并没有意识到发生了什么。GPS发出了一条报错信息,但屏幕上微小的信号声并不足以引起船员们的注意。在失去卫星数据的情况下,GPS系统很快就进入设计之初被赋予的功能:切换到航位推算法(DR,通过估算速度、时间和方向,用前一处位置推算当前的位置)。报错信号也停止了。船员们也没注意到屏幕上两个表征这一切换(“DR”)以及无信号输入(“SOL”,“解决方案”的英语单词缩写,其实是对“不再计算精确位置解决方案”相当混乱的缩写)的小小缩略词。航位推算法只是一种有凭据的猜测,它无法对气流和潮汐做校正。因此,该船的自动驾驶系统正由一套合理但越来越不准确的推算系统操控着。船员确实监看了雷达地图,但它显示的路线信息也来自GPS的大致估测,不再反映船只的实际坐标。船员也没有将GPS与另一种有效的信息资源,即定位海岸无线电信号的导航系统,进行比对。一个不幸的巧合最终决定了这艘船的命运:一个警示南塔克特危险水域的航标在GPS系统中被当成波士顿海湾航道的标记。雷达监测到了这个航标,但船员认为一切都正按计划进行。他们没有注意到任何异样,直到发现海水颜色的改变表示他们已进入浅水水域。但那时已经太迟了。这艘32 000吨的游轮搁浅于距南塔克特岛10英里处。
1701561950
1701561951 幸运的是,这则故事有个皆大欢喜的结局。“御皇”号在搁浅24小时后被5艘拖船救出。多亏了双层船底,它仍可航行并将乘客们送抵波士顿。不过,确实也花了200万美元才让“御皇”号得以重返大海。
1701561952
1701561953 我们能从这个险些酿成惨剧的事件中吸取什么教训?机器只是做了它们应做之事。所有的备用系统都一如既往地运行着。机器确实没有告知操作员当时究竟有哪些细节发生了变化。但是这对机器的要求也太高了。机器得能理解人类需要知道哪些信息,才能做到这一点,这就需要让机器理解人类试图做什么。正如我们已经看到的,这可不是机器能做到的事。机器是工具,而非追寻共同目标的真正伙伴。
1701561954
1701561955 这一事件的唯一失误在于,船上的负责人过于相信他们的GPS设备了,但他们这样做也情有可原,这些机器过去一直准确无误。这些海员们被他们理解上的错觉误导,他们自以为明白了设备向他们告知了什么,却没意识到显示器上那两个不起眼的符号所代表的重大意义(小小的“DR”和“SOL”),因为他们并不真的清楚GPS设备是怎么工作的。他们不知道那些符号说明GPS正在凭猜测进行推算,可能会得出驴唇不对马嘴的结论。他们没有仔细检查,因为他们并没有意识到自己的无知。多年来的成功航行让他们信心满满,掩盖了其理解上的错觉。
1701561956
1701561957 与自我意识如影随形的能力之一是反思能力。人们能够随时观察并评估自己的行为,能够后退一步审视自己所为以及环境现况。他们甚至可以审视一部分自己的思维过程(有意识的、经过深思熟虑的部分)。如果他们对所见不满意,可以施加一些影响来改变它。这种影响当然是有限的。如果你滑倒在一片冰面上,没有冰镐在手,那么你停下来的可能性微乎其微。同样,如果你被一些恐惧或欲望所迷惑,你可能也无法控制它们。但至少我们有能力在清醒和有意识的时候,去了解发生了什么。在我们能控制的事情上(比如,我们不会不管不顾地把眼前的一大块巧克力蛋糕塞进嘴里),我们能够调整自己的行为。相比之下,机器永远都得遵从它们的计划行事。机器程序可能会很复杂,也会存在一些能让它们适应不断改变的环境的程序。但是,如果程序的设计者始终从未考虑过机器不知做何响应这一情况,那么,当现实中这种情况真的来临时,机器就要做错事了。因此,人类的关键作用在于监督,待在那儿避免大祸临头就好。我们目前面临的最大危机在于,没人拿得到能掌握和控制现代复杂技术的全部知识。而且,技术正以前所未有的速度发展得愈加复杂。这确实需要我们的关注。
1701561958
1701561959
1701561960
1701561961
1701561962 知识的错觉:为什么我们从未独立思考 [:1701560730]
1701561963 知识的错觉:为什么我们从未独立思考 真正的超级智能
1701561964
1701561965 由于计算机不具备共享意向性的能力,而且尚无迹象表明它们正朝着这个方向发展,我们并不太担心恶魔般的超级智能会为实现自己的目标而将人类踩在脚下。事实上,我们尚未看到任何一种超级智能的问世。机器连人类最基本的分享注意力和目标的能力都不具备,它们永远无法读懂我们的思维,也不会比我们更聪明,因为它们无法理解人类。
1701561966
1701561967 但有一种观点认为,技术正在使超级智能变为可能。网络为我们提供了一些具备智能的新工具,例如GPS设备和能跟我们对话的操作系统。而网络应用最有效的一种形式是把人类自己变成工具。众包应用创造了比过去任何时候聚集大量人的知识与技能更包罗万象也更具动态性的知识共同体。众包是网站和应用程序重要的信息提供者,它对来自不同经验、地域和知识库的信息进行整合。Yelp(美国消费点评网站)以及亚马逊将服务和产品的评论实行众包。位智把地图上的交通路况众包给行驶在道路上的司机。此外,还有如红迪网之类的网站,允许用户提问并鼓励任何人提供答案。
1701561968
1701561969 若做得好,众包是利用共同体中专业知识的最佳方式。它可以让尽可能多的人参与追寻同一个目标。这意味着专家们更有可能贡献出他们的知识。最终,这将成为达成目标的最佳方案:专长专用。Yelp汇集了用餐食客对餐厅的评价,而红迪网则试图发现谁是该领域回答他人提问的行家。所以,当那些具备最多专业知识的人有足够动机参与到共同体中时,众包运行得最好。
1701561970
1701561971 众包造就了智能机器,但并非通过人工智能的魔力。它们的智能并非来自对最佳推理方式的深刻理解或巨大的计算能力,而是源于对共同体的利用。位智通过整合成千上万名用户关于交通路况及其位置信息的反馈,指导你穿梭于车流之中。此处所精进的并不是传统意义上的智力,而是众人集结的力量。
1701561972
1701561973 企业利用众包所面临的一大问题是如何激励专业人士贡献他们的才智。金钱只是激励因素之一。被认可的感觉常常比金钱激励更为有效。16维基百科的爆炸性增长就是明证。它不付给词条提供者一分一厘。《牛津英语字典》(Oxford English Dictionary)的编纂者于1857年首次开始收集为单词定义的引句时亦是如此,他们呼吁志愿者们阅览不计其数的英文文本,时至今日仍不支付任何报酬。17大多数专家都喜欢借机展现自己的专长,尤其是当他们的贡献受到肯定的时候。助知识共同体一臂之力乃你我的合作天性使然。
1701561974
1701561975 人人都在这世界上拥有一片属于自己的小窗口,能获取一小部分知识。众包能做到让人同时浏览几十、几百,有时是几千个窗口。但众包唯有在提供专业知识的前提下才能有效运作。丧失了专业性,它可能是无用甚至有害的。帕罗科尔霍–35是芬兰的一个足球俱乐部。18几年前,该俱乐部邀请粉丝们参与有关招募队员、训练,甚至比赛战术方面的决策。粉丝们用手机进行投票。其结果惨不忍睹。球队表现糟糕,教练被解雇了,这场实验也戛然而止。要使众包机制有效,仅仅有一个庞大的共同体是不够的,共同体还要有必要的专业知识。
1701561976
1701561977 有时专业只是表面现象。大多数在亚马逊网站上进行打分评价的用户并非它们自称得那么专业。19他们的打分与真正专业人士给出的评价并不吻合,且容易在其偏爱的品牌和高价位商品上给分过高。许多消费者不具备评判科技类产品,如数码相机和厨房电器优劣的专业知识。
1701561978
[ 上一页 ]  [ :1.701561929e+09 ]  [ 下一页 ]