1702302510
1702302511
抽样误差导致体验式学习容易出现两类错误。第一类错误发生在抽样回报高于真实回报之时,第二类错误发生在抽样回报低于真实回报之时。既然成功选项的经验样本量因复制成功而增加,那么因高估选项价值而造成的误差就会自行矫正。复制会减小成功选项的经验抽样误差,进而暴露高估误差。另一方面,因低估选项价值而造成的误差不会自行矫正,初始结果较差的选项容易被低估、被轻视。
1702302512
1702302513
有些现象,只要被视作颇具典型性,就可以用一个简单的模型解释清楚。假设在一组 15 个选项中反复选择多次。每个选项 Ai 的结果是一个平均值为 xi、标准差为 s 的正态分布,xi′s 和 s 不随时间而变化,xi′s 本身来自一个平均值为 0、标准差为 S 的正态分布。每个选项有一个初始声誉 Ri,0=0,就是所有选项的平均期望。随后,每次所选选项的 Ri,t等于那个选项历次变现结果的平均值。这样,某个选项第 t 次的声誉所依据的观察次数,也许少到只有 0,也许多到有 t-1。每次选择声誉最高(max Ri,t)的那个选项,实现一个结果(取自那个选项的结果分布)。
1702302514
1702302515
这一简单模型可以解释内源抽样的后果。改进:当选项平均值之间存在差异(S>0),复制成功会让绩效随着时间而改进,还会找到并复制较好的选项。稳定:复制成功会让选择趋于稳定,而且这种趋势还十分强烈。即使选项平均值之间不存在差异(S=0),这一趋势还是存在,只是强度稍弱。声誉误差:所选选项声誉与那个选项结果分布真实平均值之间的差异(Ri,t-xi)是正的,也就是所选选项的声誉会高估能力。这一差异起初较大,后来会越变越小,最终(经过很多次选择)趋近于 0。最优性:当选项平均值之间存在差异(S>0),如果计算所选选项平均值与潜在最佳选项平均值之比,那么这一比值会随着时间而增加,但永远不会达到 1.0 复制成功很少会发现最佳选项。最终状态有好有坏。在因果结构并不复杂的简单情境中,如果选项之间存在差异、选项的结果相对稳定(低变异)、经验样本足够大,那么复制成功往往会让绩效随着时间而改进。复制成功往往会导致选择趋于稳定,也就是重复选择某个选项的可能性平稳地增大。复制成功往往会导致一段时间内所选选项的声誉(过去绩效)提高。声誉之所以提高,部分是因为越来越有可能选择较好选项,部分是因为选择了抽样误差为正的选项。
1702302516
1702302517
另一方面,通过复制成功而学习也有一些令人讨厌的特点。即使在简单情境下,通过复制成功而做出的选择也极有可能是次优的。某个学习水平的复制成功会与另外一个学习水平的复制成功相互混淆,例如造成胜任力陷阱。即使选项平均绩效与期望值之差最终会趋近于 0,在一段时间内所选选项的变现绩效也会大大低估那个选项的潜力。即使选项之间不存在差异(因此就寻找较好选项而言没有什么可学的),复制成功往往也会导致选择趋于稳定。即使没有什么可学,主观学习感也有可能十分深刻。
1702302518
1702302519
这些现象有一个惊人特征,那就是它们在很大程度上取决于经验的属性而非学习者的属性。当经验以让学习有效的方式展开,那么复制成功就会增长智慧。但是,当经验是复杂的、模糊的、充满随机变异的、样本量有限的(情况往往就是如此),那么复制成功——不管是通过试误,还是模仿,或者天择——就有可能导致次优状态。
1702302520
1702302521
1702302522
1702302523
1702302525
经验的疆界 低智学习与高智解释
1702302526
1702302527
尽管存在严重缺陷,但是复制成功是一个无所不在的学习工具。人类的适应,一般都是采用各种形式的复制成功。然而,与此同时,试误、模仿、天择的低智简单与人类对高智的希望是相互冲突的。因为自负(行动者和观察者都有),所以人类似乎不愿把自身行为归结为复制成功,而是偏爱比较复杂、比较认知的理解、解释和辩护。
1702302528
1702302529
一方面,复制成功无所不在;另一方面,人类偏爱高智历史解释和高智学习,这意味着通常用高智词汇描述的行为有可能实际上只是简单地复制与成功相连的行动,即低智学习。这是一个古老的观点,深受以巴甫洛夫为首的行为主义心理学家的喜爱;这一古老观点的另外一个形式,深受经济理论家的喜爱。
1702302530
1702302531
假设人类行为的机制实际上远远没有人类对人类行为的诠释复杂。特别是假设我们可以证明,某些行为“可以解释”为简单地复制成功而得到的产品。这样的证明,几乎证明不了复制成功是产生这些行为的主要机制,但是也许可以促使人们质疑那些比较复杂的解释。下面以人们非常感兴趣、学者经常研究的两种行为为例说明一下:风险承担和配偶选择。
1702302532
1702302533
风险承担
1702302534
1702302535
说到风险承担行为,最常见的观察(假定)是,不同的人有不同的风险特质,有的人是风险规避型,有的人是风险寻求型。一般而言,大多数人应该是风险规避型。例如,大多数人宁愿稳稳地获得 k 美元,而不愿有 p 的可能性获得 k/p 美元,或者(1-p)的可能性什么也得不到——尽管两个选项的期望值都是 k 美元。
1702302536
1702302537
在面对有关金钱的选择时,大多数人规避风险,对该现象的一个标准解释是,因为金钱的边际效用递减,所以确定选项的期望效用大于不确定选项的期望效用。更一般的是,经典理性选择理论把“风险偏好”简单地定义为“金钱效用曲线的任何非线性特征”。
1702302538
1702302539
有关风险承担行为的研究表明,风险承担受个体差异的影响并不如受情境的影响强烈。最常见的描述是:当期望值高于目标(收益),个体倾向于规避风险;当期望值低于目标(损失),个体倾向于寻求风险(Kahneman and Tversky 1979)。学者有时用“不求最好但求满意”解释这一现象(March and Shapira 1992)。
1702302540
1702302541
假设风险偏好既不是个体特质又不直接取决于情境,而是学习的产品。已经有人证明,通过简单地复制成功而学习就会导致在收益面前规避风险、在损失面前寻求风险(March 1999c,第 15 章;Denrell 2007)。收益分布变异大的选项,其潜力可能因为样本小而被低估,进而被放弃。另一方面,损失分布变异小的选项,可能因为初步尝试几次总是得到负面结果而失去抽样机会,也就是被放弃。
1702302542
1702302543
这种现象的一个特例涉及小概率极端事件。小概率事件的出现次数分布是严重倾斜的。例如,重大科学突破。这样的事件,结果极其正面,但是发生机会非常之小。大多数研究者一辈子都不会经历这样的事件。实际上(或者,可能实际上),大多数学习者会低估极其稀有、极其正面事件的发生可能性,进而无意识地规避风险,不能像本来可能的那样复制与重大科学发现相连的行动(例如,高度敬业、积极投入)。
1702302544
1702302545
还有一些案例,涉及的是极少发生但后果十分严重的事件,比如核电厂的核事故。核事故的发生可能性极低,核电厂的大多数操作员不会经历。实际上(或者,可能实际上),大多数学习者会低估极其稀有、极其负面事件发生的可能性,进而无意识地寻求风险,复制增加核事故发生可能性的行为(例如,粗心大意)。在诸如此类的案例中,收益面前规避风险、损失面前寻求风险,不过是学习的产品。
1702302546
1702302547
看看这两类案例的不同之处,在涉及稀有正面事件的案例中,因为没有经历过事件,所以个体会放松复制加大事件发生可能性之行动(例如,勤奋努力)的力度,进而不仅减少矫正对事件发生可能性无意识低估的机会,而且真正让事件变得不大可能。学习会降低做出重大科学突破的机会。在涉及稀有负面事件的案例中,因为没有经历过事件,所以个体会放松回避加大事件发生可能性之行动(例如,马虎大意)的力度,进而不仅增加矫正对事件发生可能性无意识低估的机会,而且真正让事件变得更加可能。学习会增加酿成重大核事故的可能性,还会既通过更多地经历核事故又通过让核事故变得更加可能来“矫正”对风险的低估。
1702302548
1702302549
在这个问题上,贝弗莉·萨奥尔(Beverly Sauer)回顾有害环境管制经验后观察到,“机构制定书面标准,因为经验是蹩脚的老师”(2003,37)。萨奥尔解释说,长期置身于危险之中但一直安然无恙,人们就会淡忘曾经让自己非常忧心的危险,因此,经验具有双面性,一方面让人们泰然处之,另一方面让人们麻痹大意。
1702302550
1702302551
配偶选择
1702302552
1702302553
假设有这么一个世界,人们选择配偶,每次选择一个候选者,记录其表现。为了简便起见,假定选择是单向的,也就是候选者没有选择机会,只是等着被选。每个候选者的表现都来自潜在表现的正态分布。每一次首先计算曾被选过的候选者各自的平均表现,然后计算所有曾被选过的候选者的平均表现的平均值,把这个平均值当作所有未被选过的候选者的期望值,之后比较所有候选者,从中选择一个。
1702302554
1702302555
在这样的世界,如果人们通过复制成功而学习如何选择配偶,那么人们的配偶选择行为会表现出什么特点?三个有趣的特点值得一提:
1702302556
1702302557
(1)通过这种方式选择的配偶是潜在最佳配偶的可能性非常小。
1702302558
1702302559
(2)最后会出现一夫一妻制,也就是,下次重复上次所做选择的可能性会逐渐增加。以上趋势会因选择之后的失望而减弱,会因相处能力的提高而增强。
[
上一页 ]
[ :1.70230251e+09 ]
[
下一页 ]