打字猴:1.700549957e+09
1700549957 我们如何运用所有这些关于系统1和系统2的偏差与故障的知识呢?这些知识怎样才能引导我们更聪明地做决策,以及做出更好的决策呢?最明显的方法,就是在可能的情况下放手让机器做决策,系统2的纯数字化演绎因摩尔定律而功力大增,通过源源不断地导入数据,让它给出答案,无须系统1的输入。这正是越来越多的公司随着时间的推移而着手进行的事情。
1700549958
1700549959 第二经济
1700549960
1700549961 据我们所知,在企业计算时代刚刚到来的时候就有了全自动化决策的先例,它就是体现人们信誉的数字化记分系统——评估人们偿还一定数额贷款的可能性。传统上,这一关键决策是由银行分行的本地贷款人员做出的,他们根据自己的经验评估贷款申请,有时也结合了相关规则或指南。然而比尔·法伊尔(Bill Fair)和伊尔·艾萨克(Earl Isaac)觉得用数据可以做得更好。他们于1956年创立了Fair Isaac(费埃哲公司),推出FICO(个人信用评分)计算信用评分。
1700549962
1700549963 自动信用评估很快成为常态。到1999年,《美国银行家》(AmericanBanker)杂志报道说:“甚至无须(人)去评估任何5万美元以下的(信用申请),电脑就搞定了。”FICO及同类系统已被证明是高度可靠的还贷预测工具,而且,随着近年来个人数字信息的数量和类别的增加,这种“大数据”方法也被用来提升和延伸信用评分。
1700549964
1700549965 这些评分系统的开发人员必须小心翼翼,免得被误认是从事数字化歧视业务(一种非法业务,以种族或部落人群为由,拒绝或降低某些地理区域的信贷)。一般来说,他们提供了一种有价值的服务,让更多人获得信贷机会,让放款人有信心扩大业务。有证据显示,随着信贷决策趋于自动化,经济歧视实际上是减少了。2007年,美联储报告说,信用评分模式“减少了从事非法歧视行为的机会……有助于降低信贷决策受个人特征或法律禁止的其他因素(如种族、部落等)影响的可能性”。
1700549966
1700549967 今天,有价值、高质量的完全自动化决策事例比比皆是。亚马逊和其他电子商务网站会为每位购物者的每次访问给出推荐,尽管许多人错过机会,但有些人受到极大的吸引。例如,亚马逊估计,其销售额的35%来自推荐项目之类的交叉销售活动。飞机航班和酒店客房的价格一直在变,反映了供需预测的演化,以及每分钟又如何发生实际的变更。对无数企业来说,这种被称为收益管理的定价方法至关重要(我们将在第7章讨论这个主题),但是,收益管理算法产生的价格在提交给客户之前,很少(如果有的话)由人工复查一遍。实体商品现在也实行自动化的价格变动。2015年感恩节之后的第一天,亚马逊和沃尔玛在美国的所有存货分别提价16%和13%。
1700549968
1700549969 事实上,诸多完全自动化的决策正在我们周围发生,以至经济学家布莱恩·阿瑟(Brian Arthur)用“第二经济”来形容它,其中交易没有人类的介入,其发生形态是“巨大的、沉静的、彼此连接的、看不见的、自主的”。随着时间的推移,这种自动化的第二经济正延伸到我们熟知的以人为中介的经济体,算法接管了专家和HiPPO人士的工作。全世界越来越多的信息被数字化了,由此带来了大量数据,它们可用于改进工作,将直觉转化为数据驱动的决策。
1700549970
1700549971 长期以来,广告公司不仅帮助客户从事制作新电视广告片的创意工作,而且还帮他们确定在何时何地进行展示,即确定哪些电视节目、哪些地域市场和哪些时段最能匹配广告客户的目标和预算。就这项工作而言,数据和技术早有应用,热播剧《广告狂人》(Mad Men)的广告代理1969年就买下第一台电脑(IBM System/360),以帮助其更好地投放广告并吸引客户,但该项工作仍主要受人的判断和决策的驱动。
1700549972
1700549973 丹·瓦格纳(Dan Wagner)在巴拉克·奥巴马2012年成功连任的竞选活动中担任高级分析师,当时他发现机器分析原来可以这么精准,还能带来如此多的好处。瓦格纳和他的同事为每位美国选民建立名册。该分析团队使用机器学习技术(下一章将详细讨论),为名册上的每个人建立了三个单独的评分:一个“支持评分”,用于预测每个人支持奥巴马的可能性(相对于竞选对手米特·罗姆尼);一个“投票评分”,用于预测每个人在11月实际去投票站投票的可能性;以及一个“劝说评分”,用于预测每个人在接收奥巴马竞选团队的信息之后对他产生好感的可能性。
1700549974
1700549975 多年来,每个电视节目都有人口统计数据,例如,统计丹佛地区有多少18—24岁的男士在周二晚上10点观看动画节目《恶搞之家》(Family Guy)重播。传统上,传媒买家和战略家在做决策时严重依赖这些信息。如果奥巴马2012年的竞选团队想在科罗拉多州18—24岁的男士眼前发布信息,那么有很多公司和人士可以就周二晚上《恶搞之家》重播时是否插播竞选广告提供建议。
1700549976
1700549977 但是,像其他大多数广告买家一样,奥巴马团队知道依靠人口统计数据很不靠谱。他们的广告受众可能主要是罗姆尼的铁杆支持者,又或者看广告的人基本上都已经决定投票选举奥巴马,那么这就是浪费时间。依靠人口统计意味着依靠判断和粗糙的估计,这样做几乎等同于以下猜测:选举期间特别抓取的一个更容易接受奥巴马竞选信息的群体,就是18—24岁的男士,或者说是《恶搞之家》的观众,甚至可以说是一般卡通片的观众。
1700549978
1700549979 瓦格纳和他的同事们意识到,他们那份详尽的选民名册有可能生成一种好得多的媒体购买方式。有了这份名册,竞选团队可以确定哪些人属于最需要接触的两个群体:一是需要劝说以便在投票日真正去票站投票的奥巴马支持者,二是有可能被说服支持奥巴马的骑墙选民。前者是“出门投票组”,后者是“可说服组”。分析团队认为,这两组人分布在广泛的人口统计类别,所以仅仅基于人口统计数据来选定电视节目就会错失团队希望接触的人群。该团队还从早期的实验结果中获知,令两组人有反应的广告类型大不相同,因此在购买电视节目时段时要区分开来。
1700549980
1700549981 2012年,一些评级公司已经远不满足于抓取电视节目人口统计数据,它们能够界定哪些人正在看节目。[10]这正是瓦格纳及其同事所需的第二类数据。他们向这些公司提供竞选团队的“出门投票组”和“可说服组”列表,然后拿到了每组中有多少人观看每个节目的信息。[11]这样一来,他们就轻而易举地找到最佳买点,也就是说,每一美元广告开支所买下的电视节目都能让最多属于“出门投票组”和“可说服组”的人看到。瓦格纳告诉我们说:“我们最终购买了美国有线电视台的深夜节目,这真的很奇怪。它就像冒出来似的,而它冒出来的原因无非就是很便宜。那些节目有很多‘可说服组’的选民观看,所以我们就买下来了。”
1700549982
1700549983 选举后,瓦格纳创立了Civis Analytics(一家大数据公司),将这种深受数据驱动的媒体购买方法做成产品,然后提供给企业和其他组织。他相信当下是这类产品的大好时机,在很大程度上,很多企业都有包罗万象的个人名册,如潜在客户,可能有后续采购的现有客户,等等。他说:“如果你销售昂贵的轮胎,那么会有一小部分人愿意花大价钱买它,另有90%的人丝毫不在乎,因为他们不开车,抑或他们从不购买昂贵轮胎。你对目标客户有相当好的判断,但是说到他们在看什么电视节目,你从没办法知道得同样精准,同样有把握。现在好了,你可以做到了。”对于广告商来说,投放电视广告是一个重要的决策,它用到一些数据,也用到许多判断。Civis Analytics正在努力改变这一点,使得媒体购买成为一种近乎优化而不是直觉的工作。
1700549984
1700549985 诚然,即使是高度优化的数据驱动系统也未臻完美,当输入的数据有质量缺陷时尤其如此。2016年,希拉里·克林顿的竞选团队采取了许多类似的方法,却以微弱劣势落败,其部分原因就是民调数据失准,本来预测她在中西部三个州大幅领先,最终却全部惜败。
1700549986
1700549987 另一种常见的风险是决策者不擅长优化正确的终极目标,也就是“HiPPO”一词的首创者之一罗尼·科哈维所说的“整体评估标准”。就算瓦格纳的团队能够成功地使克林顿在全民投票中的领先地位最大化,这也不是正确目标。决定美国总统大选结果的是选举团而不是全民投票,它需要有更加微妙的针对各个州的战略。同样,衡量在线广告活动产生的网页浏览量或点击率很容易,但大多数公司更关心的是长期销售,它通常经由不同类型的广告活动达到最大化。因此,仔细选择正确的数据输入和正确的绩效指标,特别是整体评估标准,是成功的数据驱动决策者的一个关键特征。
1700549988
1700549989 糟糕的算法
1700549990
1700549991 将决策交给机器的真正风险在于,算法系统中的偏见可能会延续甚至放大社会上的一些有害偏见。例如,哈佛大学教授拉坦娅·斯威尼(Latanya Sweeney)就有一段广为人知的郁闷经历,有一次她在谷歌搜索引擎中输入自己的名字,与搜索结果一起出现的还有这么一段广告:
1700549992
1700549993 拉坦娅·斯威尼,被捕?(1)输入名称和所在州(2)访问完整的背景信息。立即检查可至www.instantcheckmate.com。
1700549994
1700549995 该广告提示她有犯罪记录,但事实上她从未被捕。
1700549996
1700549997 随着进一步的研究,斯威尼发现,与劳丽(Laurie)、布兰登(Brendan)等白人的名字相比,搜索诸如特利文(Trevon)、拉基沙(Lakisha)或拉坦娅之类的非裔美国人名字更可能显示“被逮捕?”的信息。虽然我们不知道为什么会出现这种模式,但斯威尼提出了一种令人不安的解释:谷歌的自动化广告投放算法可能已经注意到,当广告与貌似黑人的名字相关联时,人们更可能点击去看。因此,这一种族偏见并非反映任何投放广告的人或谷歌公司的人有意歧视,它更可能是反映并放大了数百万用户点击广告而生成的全社会歧视决策类型。同样,2017年1月,在谷歌的图像搜索中输入“科学家”或“祖母”时,产生的绝大多数是白人头像。
1700549998
1700549999 在《自然》杂志的一篇文章中,凯特·克劳福德(Kate Crawford)和赖恩·卡洛(Ryan Calo)指出了这么一种危险:“在当前的一些情况下,人工智能系统的缺点不成比例地影响了因种族、性别和社会经济背景等因素而处于不利地位的群体,这凸显了考虑此类系统有意或无意的社会影响的重要性。”
1700550000
1700550001 我们认同这些关注,也看到越来越依赖算法决策的挑战和机会。挑战就是:这种方法会嵌入和延续不公平的、有害的和不必要的偏见。更糟糕的是,即使设计人员有创建无偏见系统的良好初衷,这些偏见也可能会出现,如果没有广泛的测试,它们可能难以识别。所有的系统设计都必须直面这一挑战。
1700550002
1700550003 机会则是:人们通常可以测试和改进基于机器的系统。一经纠正,它们就不太可能再犯同样的错误。相比之下,让人类承认自己的偏见很难,有多少人会公开声称种族歧视或性别歧视呢?更不用说要克服这些困难了。采用一种决策系统(无论是基于机器,基于人类,还是基于两者的某种组合)的最终标准实际上都不是完美的。任何系统都可能会出错,都有偏见。因此,我们的目标应该是选择使偏差和错误最小化,并能够使之轻易快速被纠正的方法。
1700550004
1700550005 让人类加入系统决策过程
1700550006
[ 上一页 ]  [ :1.700549957e+09 ]  [ 下一页 ]