1701066167
用逻辑深度度量复杂性
1701066168
1701066169
为了更加接近我们对复杂性的直觉,数学家班尼特在20世纪80年代初提出了逻辑深度(logical depth)的概念。一个事物的逻辑深度是对构造这个事物的困难程度的度量。高度有序的A、C、G、T序列(例如前面的序列1)显然很容易构造。同样,如果我要你给我一个A、C、G、T的随机序列,你也很容易就可以做出来,用个硬币或骰子就可以了。但如果我要你给我一个能够生成可发育的生物的DNA序列,如果不偷看真正的基因组序列,别说你,任何一个生物学家都会觉得很难办到。
1701066170
1701066171
用班尼特的话说,“有逻辑深度的事物 [91] ……从根本上必须是长时间计算或漫长动力过程的产物,否则就不可能产生”。或是像劳埃德说的,“用最合理的方法生成某个事物时需要处理的信息量 [92] 等同于这个事物的复杂性,这是一个很吸引人的想法”。
1701066172
1701066173
为了更精确地定义逻辑深度,班尼特将对事物的构造换成了对编码事物的0/1序列的计算。例如,我们可以用两位二进制数来编码核苷酸符号:A=00,C=01,G=10,T=11。用这个编码,我们就能将A、C、G、T转换成0/1序列。然后编写一个图灵机,用编写好的图灵机在空白带子上产生出这个序列,所需要的时间步就是其逻辑深度。
1701066174
1701066175
一般而言,多个图灵机都能产生出这个序列,所需的时间也可能不一样多。班尼特还必须说明应该用哪一个图灵机。他提出,应该根据前面提到的奥卡姆剃刀原则,选最短的那个(也就是状态和规则最少的那个)。
1701066176
1701066177
逻辑深度具有很好的理论特征,符合我们的直觉,但是也没有具体给出度量实际事物复杂性的方法,因为没有寻找生成指定事物的最小图灵机的可操作方法,更不要说如何确定机器运算所需的时间。此外,也没有考虑将事物表示成0/1序列的困难。
1701066178
1701066180
用热力学深度度量复杂性
1701066181
1701066182
20世纪80年代末,劳埃德和裴杰斯(Heinz Pagels)提出了一种新的复杂性度量 [93] ——热力学深度(thermodynamic depth)。劳埃德和裴杰斯的思想与班尼特的思想很相似:越复杂的事物越难构造。不过与图灵机生成对事物的描述所需的时间步不同,热力学深度首先是确定“产生出这个事物最科学合理的确定事件序列”,然后测量“物理构造过程所需的热力源和信息源的总量”。 [94]
1701066183
1701066184
例如,要确定人类基因组的热力学深度,我们得从最早出现的第一个生物的基因组开始,列出直到现代人类出现的所有遗传演化事件(随机变异、重组、基因复制等等)。可以想象,人类进化出来的时间比变形虫要长10亿年,热力学深度肯定也大得多。
1701066185
1701066186
同逻辑深度一样,热力学深度也只是在理论上有意义,要真的用来度量复杂性也存在一些问题。首先,我们要能列出事物产生过程中的所有事件。另外,也有批评意见指出, [95] 劳埃德和裴杰斯的定义中没有明确界定什么是“事件”。一次遗传变异到底是单个事件还是在原子和亚原子层面导致变异发生的上百万次事件呢?两个祖先的基因重组应当视为单个事件吗?还是应当将导致它们相遇、交配和产生后代的所有微观事件都包括进来呢?用更专业一点的话说,是不清楚如何将系统的状态“粗粒化”——也就是说,在列出事件时,如何确定哪些是相关的宏观状态。
1701066187
1701066189
用计算能力度量复杂性
1701066190
1701066191
如果复杂系统能够执行计算,不管系统是天然的还是人工的,也许有可能用它们的计算的复杂程度来度量它们的复杂性。像物理学家沃尔夫勒姆(Stephen Wolfram)就提出, [96] 系统的计算能力如果等价于通用图灵机的计算能力,就是复杂系统。不过,班尼特等人则认为, [97] 具有执行通用计算的能力并不意味着系统本身就是复杂的;我们应当测量的是系统处理输入时的行为的复杂性。譬如,通用图灵机本身并不复杂,但是有了程序和输入,进行了繁复的计算,就能产生复杂的行为。
1701066192
1701066194
统计复杂性
1701066195
1701066196
物理学家克鲁奇菲尔德和卡尔·杨(Karl Young)定义了一个称为统计复杂性 [98] (statistical complexity)的量,度量用来预测系统将来的统计行为所需的系统过去行为的最小信息量。[物理学家格拉斯伯杰(Peter Grassberger)也独立给出了很类似的定义,称为有效度量复杂性。]统计复杂性与香农熵相关,定义中系统被视为“消息源”,其行为以某种方式量化为离散的“消息”。对统计行为的预测需要观测系统产生的信息,然后根据信息构造系统的模型,从而让模型的行为在统计上与系统本身的行为一致。
1701066197
1701066198
例如,序列1的信息源模型可以很简单:“重复A C”;因此其统计复杂性很低。然而,与熵或算法信息量不同,对于产生序列2的信息源也可以有很简单的模型:“随机选择A、C、G或T。”这是因为统计复杂性模型允许包含随机选择。统计复杂性的度量值是预测系统行为的最简单模型的信息量。因此,与有效复杂性一样,对于高度有序和随机的系统,统计复杂性的值都很低,介于两者之间的系统则具有高复杂性,与我们的直觉相符。
1701066199
1701066200
同前面描述的度量一样,度量统计复杂性也不容易,除非面对的系统可以解读为信息源。不过克鲁奇菲尔德、杨和他们的同事实际测量了一系列真实世界现象的统计复杂性,比如复杂晶体的原子结构 [99] 和神经元的激发模式 [100] 。
1701066201
1701066203
用分形维度量复杂性
1701066204
1701066205
前面讨论的复杂性度量都是基于信息论和计算理论的概念。但这并不是复杂性度量的唯一可能来源。还有人提出用动力系统理论的概念度量事物复杂性的方法。其中一个是用事物的分形维(fractal dimension)。要解释什么是分形维,还要先解释一下什么是分形。
1701066206
1701066207
分形最经典的例子是海岸线。从空中俯瞰下去,海岸线崎岖不平,有许多大大小小的海湾和半岛(图7.2,上图)。如果你下去沿着海岸线游览,它似乎还是一样的崎岖不平,只是尺度更小(图7.2,下图)。如果你站在沙滩上,或是以蜗牛的视角近距离观察岩石,相似的景象还是会一次又一次出现。海岸线在不同尺度上的相似性就是所谓的“自相似性”。
1701066208
1701066209
分形一词是由法国数学家曼德布罗特(Benoit Mandelbrot)提出来的,曼德布罗特认识到自然界到处都有分形——现实世界中许多事物都有自相似结构。海岸线、山脉、雪花和树是很典型的例子。曼德布罗特甚至提出宇宙也是分形的, [101] 因为就其分布来说,有星系、星系团、星系团的聚团,等等。图7.3展示了自然界中一些自相似性的例子。
1701066210
1701066211
1701066212
1701066213
1701066214
▲图7.2 上图:爱尔兰岛鸟瞰图片,其海岸线有自相似(分形)特征。下图:爱尔兰海岸线的局部图片。这个尺度上的崎岖结构与更大尺度上的崎岖结构类似[上图来自NASA可视地球(http://visibleearth.nasa.gov/)。下图由Andreas Borchet拍摄,经Creative Commons许可使用(http://creativecommons.org/licenses/by/3.0/)]
1701066215
[
上一页 ]
[ :1.701066166e+09 ]
[
下一页 ]