1704424485
1704424486
基于第135页所描述的Dawkins(1976)的“性别战争”,Schuster和Sigmund(1981)研究了这个问题。然而,与方程(J. 1)不同,他们采用的微分方程是
1704424487
1704424488
1704424489
1704424490
dX/dt=X[W(A)-];dY/dt=Y[V(R)-] (J. 2)
1704424491
1704424492
1704424493
1704424494
在附录四中,我们曾经讨论过,在对称竞争中用(J. 2)形式的方程来替代(J. 1)形式的方程是合理的,这是因为这一变换并没有改变微分方程的不动点和轨线。但是,在非对称竞争中,这一点不再正确,这是因为≠。于是对于上述微分方程哪一个形式更为恰当的问题尚有考虑的余地,我们将依次考虑这两种形式。
1704424495
1704424496
令人感兴趣的情形是存在一个内部的不动点以及具有周期性循环的行为,这种情况在r>s,b>a,u>t以及c>d(或者所有这些不等号反向)的时候就会产生。从定性的角度看,如果考虑的是一个具有简单数值的例子,那么不会影响结论,其中r=b=u=c=2并且s=a=t=d=1。根据对称性,方程的不动点是X=0.5,Y=0.5。设X=0.5+x,并设Y=0.5+y,方程组(J. 2)变成:
1704424497
1704424498
1704424499
1704424500
1704424501
如果我们忽略x2和y2两项,那么方程(J. 3)描述的是简单的谐波运动(harmonic motion)。该完备方程组也描述了一个保守系统(conservative system),这是因为H=x2+y2-4x2y2是运动中的一个恒量。这样方程组(J. 3)描述了一系列闭环(如图45a所示)。
1704424502
1704424503
生物学家已经对自守系统产生了怀疑。所以值得安慰的是方程组(J. 1)是渐近稳定的。对于具体数值的例子,该方程组变为:
1704424504
1704424505
1704424506
1704424507
1704424508
Joseph Hofbauer曾经证明,对于这些方程,H=x2+y2-4x2y2是一个李雅普诺夫函数(Lyapunov function),那就是说,dH/dt≤0。因此内部不动点是渐近稳定的(如图45b所示)。Hofbauer进一步证明,如果博弈回报矩阵中的所有数值都为正,那么方程组(J. 1)就会收敛于该不动点。
1704424509
1704424510
1704424511
1704424512
1704424513
图45 两策略非对称博弈的动态变化。(a)图描述了方程组(J. 2)的情况;(b)图描述了方程组(J. 1)的情况。
1704424514
1704424515
不幸的是,得出这种类型的博弈必然会达致一个稳定的多态这一结论并不可靠。如果在物种世代之间相互隔离的情况下,用差分方程来替代上述微分方程,那么就会像时间滞后的情形一样,存在一个很强的失稳效应。于是我们能够肯定的是这样的博弈可能导致振荡的行为。至于这样的振荡会趋于收敛还是导致发散则随着情况的不同而不同。
1704424516
1704424518
十一、重复博弈的囚徒困境
1704424519
1704424520
囚徒困境的博弈如表36所示。这场竞争由相同的两个局中人之间展开的一系列博弈所构成。在每一次博弈之后,下一场博弈出现的概率是w。这样,每场竞争所包含博弈的期望次数为1+w+w2+…=1/(1-W)。
1704424521
1704424522
表36 囚徒困境博弈
1704424523
1704424524
1704424525
1704424526
1704424527
以牙还牙的策略,即TFT策略,在第一次博弈中采取策略C,而在后继的所有博弈中,参与者都会采取对手在前一次博弈中所实施的策略。Axelrod(1981)证明只要博弈的次数足够多,那么策略TFT能够抵抗所有其他策略的侵害,是博弈的一个ESS。
1704424528
1704424529
首先我们要说明的是,我们只需要考虑以下几种可选的策略序列,那就是CCCC……、DDDD……以及DCDC……这是因为除了这些策略之外,其他所有的策略在面对TFT策略时有没有更好的表现。
1704424530
1704424531
首先我们注意到TFT只有对博弈的一期记忆,并且在任何时刻,后继博弈的期望次数总是一个常数。如果I是面对TFT策略所采取的一个策略序列,在任何时刻I采取一次C策略就可以把整场竞争回复到最初状态。同样地,如果I采取的第一个策略是D,在以后任意时刻实施一次D策略也可以把整场竞争恢复到最初状态。
1704424532
1704424533
其次我们注意到如果I是TFT策略的最优反应,那么当最初的状态不断出现时,它必须采取第一步行动时它所采取的策略。如果在那个状态下存在一个更好的策略,那么它应该在一开始就采取过。
1704424534
[
上一页 ]
[ :1.704424485e+09 ]
[
下一页 ]