1701028870
1701028871
3.当与通过它们自己相互作用的经历所得的信息相比,对策者之间拥有更多的信息时,群体的分化就发生了。如果对策者有标记指示它们的群体身份和个体的态度,成见和等级地位就会产生。如果对策者能相互观察到对方与其他个体的相互作用,它们就能建立信誉,而信誉的存在能导致一个以尽力阻止恶棍为特征的世界。
1701028872
1701028873
4.政府在使它的大部分公民服从方面有它自己的策略问题,这不仅是在某一特定情况下选择一个有效的策略的问题,而且还是一个如何设立标准,使得服从既对公民有吸引力又能有利于社会。
1701028874
1701028875
5.领地系统是考察如果对策者只和它们的邻居打交道并且模仿比它们做得更成功的邻居时,会出现什么情况。与邻居的相互作用,产生了特定策略传播的复杂模式,并且为有些做得很差的策略在某些情况下做得异常出色提供了可能。
1701028876
1701028877
[1]用市场的术语来表达就称为指标。
1701028878
1701028879
[2]如果屈服,你的得分为S+wR+w2S+w3R…=(S+wR)/(1-w2);如果反抗,你就得一直背叛,得分为P+wP+w2P+w3P…=(P+wP)/(1-w2)。所以,当(S+wR)/(1-w2)>(P+wP)/(1-w2)或S+wR>p+wP或w>(P-S)/(R-P)时,背叛就显得毫无意义。因此,当w足够大时,就没有必要背叛。如果S=0,P=1,R=3(像书中给出的那样),当w大于1/2时,就没有必要再反抗。
1701028880
1701028881
[3]进化稳定策略的概念与集体稳定策略的概念相类似,但对于一个善良策略而言,两者是一回事,正如第三章注释[1]中阐述的那样。
1701028882
1701028883
[4]基于这些数值,且w=1/3,这个领地系统使得Dn>Tn-1>Dn-1,除非D3>T4。其中Dn为总是背叛与n个邻近的“一报还一报”相遇的得分,Tn为“一报还一报”与其他n个临近的“一报还一报”相遇的得分。例如,D4=V(“总是背叛”|“一报还一报”)=T+wP/(1-w)=56+(1/3)×6/(2/3)=59。
1701028884
1701028885
[5]一些有意思的有待研究的可能性是:
1701028886
1701028887
(1)相互作用的结果取决于相互作用的历史,例如,它可能取决于对策者做得如何。一个不成功的比赛者更有可能会死亡、破产或去寻找新的伙伴。这意味着不值得去剥削一个不会或不能报复的比赛者,原因是你不必杀鸡取蛋。
1701028888
1701028889
(2)比赛不必是重复“囚徒困境”。例如,它可能是一种重复“孬种游戏”,最坏的结果便是双方背叛,如危机谈判或工人罢工等(Jervis 1978)。这样的比赛中合作进化的结果,参见Maynard Smith(1982)和Lipman(1983)。另一种可能性是每一步所承担的风险是不同的(Axelrod 1979)。还有一种可能,除了简单的两种选择(合作或背叛)以外,对策者可能会面临更多的选择。
1701028890
1701028891
(3)相互作用可能会同时在两个以上的对策者中发生。共有物的供应为n人的“囚徒困境”提供了一个典型的范例(Olson 1965)。其应用涉及范围很广,在这类问题中,每个参加者都受到免费享用其他人努力的诱惑。这方面的例子包括议会中游说的组织和集体安全的提供。如道斯(Dawes 1980)指出的,n人情形与两人情形在定性上有三个方面不同。首先,一个背叛所引起的危害会涉及许多人而不是集中在一个人身上;第二,在n人对策中,对策者的行为可能是匿名的;第三,由于收益取决于许多不同的对策者的行为,每个对策者不可能完全控制所有其他对策者。有大量的有关文献,但较好的有Olson(1965),G. Hardin(1968),Schelling(1973),Taylor(1976),Dawes(1980)和R. Hardin(1982)。
1701028892
1701028893
(4)辨别和报复的能力都是有代价的,因此如果几乎所有的其他人使用善良策略,那么,你最好放弃辨别和报复的能力。这有助于说明报复能力的减弱,并提供了一个基于进化原则而不是正规协议的方式来研究军备控制和裁军。
1701028894
1701028895
(5)对策者有时不能确定对方上一步的真正选择。这是一个随机噪声或系统性的误解的问题(Jervis 1976)。为了研究这个情况,在加上对对方上一步选择有1%机会的误解后,重新进行第一轮竞赛。结果又是“一报还一报”胜利。这说明在有点误解的条件下“一报还一报”是相当鲁棒的。
1701028896
1701028897
1701028898
1701028899
1701028901
合作的进化(修订版) 第九章 回报的鲁棒性
1701028902
1701028903
进化的方法基于一个简单的原则:成功的东西更有可能在将来经常出现。但机制有各种各样,经典的达尔文进化中的机制是基于不同的生存和复制的自然选择。议会中的机制可能是那些有效地为选民提供法案和服务的议员们会增加再次当选的机会。商业界的机制可能是一个获利的公司可以避免破产。但是进化的机制不必是生与死的问题,对于有智能的对策者,一个成功的策略能更经常地在将来出现,是因为其他人转变过来采用这个策略。这种转变或多或少可以是对成功者的盲目模仿,或者是基于有意识的学习过程。
1701028904
1701028905
进化过程不仅要求成功的东西有或多或少的增长,为了使进化更深入它还要求多样性,即尝试新的东西。在遗传生物学中,这种多样性是由每一代基因的变异和改组来提供的。在社会过程中,多样性是由反复试错学习引入的,这种学习过程不一定反映高智能。一个新的行为模式可能作为旧行为的一个随机的变形而被接受,或者一个新的策略可以在以前的经验和怎样才能在将来做得最好的理性的基础上形成。
1701028906
1701028907
研究进化过程的不同方面,需要用不同的方法。有一些问题是关于进化过程的目的的。为了研究这些问题,集体(或进化)稳定的概念被用来说明进化过程将何时停下来,即确定哪些策略被大家采用时不被侵入。这种方法的优点在于能够很好地说明什么类型的策略能保护自己,在什么条件下能实现这种保护。例如,它说明了在未来影响足够大时,“一报还一报”是集体稳定的,而“总是背叛”策略在任何条件下都是集体稳定的。
1701028908
1701028909
集体稳定的方法的优势在于它能考虑所有可能的新策略,不管是原有策略的一点点变形,还是完全新的策略。稳定性方法的局限性在于它只说明什么策略在建立之后能够持续下去,却不能说明什么策略能首先建立。由于有许多不同的策略一旦建立一个群体就是集体稳定的,因此,知道哪个策略能首先建立是重要的,这需要不同的方法。
1701028910
1701028911
为了了解什么策略能首先建立,重点必须放在群体策略的多样性上。为了获得这种多样性,我们使用了竞赛的方法。这个竞赛方法本身鼓励提交复杂的策略,在第一轮竞赛中从对策专家那里得到了一些复杂的策略。通过让第二轮参赛者都知道第一轮竞赛的结果而使这些策略得到进一步改进。因此,新想法作为旧想法的改进或者作为那些可能做得很好的完全新的概念而加入竞赛。接着分析在这个多样化的环境中什么能做得最好,从而使我们了解了什么样的策略可以繁荣起来。
1701028912
1701028913
由于建立整个过程可能要花很多时间,另一个技术被用来研究当策略的社会环境变化时,它们的前景的变化。这个技术就是生态分析。它计算如果每一代策略出现的频率的增长与它们在前一代的成功成正比时会发生什么。它之所以是一个生态的方法,是由于它不引入新的策略,而只确定在竞赛中出现的各种策略在经过几百代以后的结果。它能够分析在一开始成功的策略是否在表现差的策略被淘汰后还能保持成功。在每一代中,成功策略的增长可以被看作是这个策略的使用者的较好的存活和复制,或者由于有较大的机会被其他人模仿。
1701028914
1701028915
与生态分析相关的是领地分析,它研究如果第二轮中的63个策略被散布在领地结构中且每一个位置都有4个邻居时所发生的情况。在领地系统中,成功的确定是局部的,每个有成功的邻居的位置将采用它的最成功的邻居的策略。像在生态模拟中一样,更成功的增长是由于较好的存活和复制,或者是由于有较大的机会被其他人模仿。
1701028916
1701028917
为了使用这些进化分析的方法,需要一个方式来确定任何一个给定的策略是如何与任何其他给定的策略对局的。在简单的情况下,可以用代数方法来进行计算,就像研究“一报还一报”遇见“总是背叛”时要如何做一样。在更复杂的情况下,可以用相互作用仿真并累计所得到的收益值来实现这个计算,就像进行“囚徒困境”的计算机竞赛一样。时间折扣和相互作用结束的不确定性,通过游戏长度的变化在竞赛中体现。随机特性的影响通过对相同的两个策略多次相互作用的结果的平均来克服。
1701028918
1701028919
这些进化的分析工具可以用于任何社会背景。在本书中,它们被用于一种特殊的社会情形,这种社会情形反映了最基本的合作困境。当每个人都能帮助其他人时,合作的潜力就会增加。但是当这种帮助是有代价的时候,困境就出现了。当从对方的合作中得到的好处大于自己合作的代价时,从合作中得到双方的好处的机会就能起作用。在这种情况下,双方将更愿意选择合作而不选择背叛。但是要达到你所喜欢的结果并不容易。这里有两个原因:第一,你必须得到对方的帮助,然而从短期效果来看,不帮助你对对方更有利。第二,你想得到别人的帮助,却不愿付出帮助别人的代价。[1]
[
上一页 ]
[ :1.70102887e+09 ]
[
下一页 ]