1700219372
1700219373
外星人长得像人吗:怀疑论对科学的揭秘
1700219374
1700219375
有偏见的大脑
1700219376
1700219377
为什么只有科学才能摆脱依赖信念的实在论?
1700219378
1700219379
美国总统奥巴马是在夏威夷出生的吗?我觉得这个问题相当荒谬,而且在动机上暗含种族主义。因此,当我面对那些持不同看法的“出生证阴谋论者”时,我很容易就忽略了他们在“出生证明”和“出生登记证明”之间所作的区分。这是因为,一旦我在这个问题上形成意见,这个意见就会成为信念,它受到一系列认知偏见的保护,显得千真万确。那么,我的这种态度是非理性的吗?可能吧。不过话说回来,在大多数时候,我们大多数人的大多数信念系统,其实都是这么运作的。(“出生证阴谋论者”认为,奥巴马未出生在美国领土,因而没有资格成为美国总统。)
1700219380
1700219381
我们之所以形成某些信念,有着各种主体的、情绪的、心理的原因。小到家人、朋友、同事,大到文化和社会,我们的信念处在各种环境因素的影响之下。信念一旦形成,我们就会用各种感性的理由、有力的论据、理性的解释来为它们辩护申说,使之显得合理。信念是第一位的,对信念的解释是第二位的。我在《信任的大脑》(The Believing Brain)一书中指出了一个现象,即我们对现实的认识有赖于我们对它的信念,我把这个现象称为“依赖信念的实在论”(belief-dependent realism)。现实的存在固然独立于人的心灵,但在任何时候,我们对现实的认识都依赖于我们的信念。
1700219382
1700219383
我的这个概念仿照的是物理学家霍金和蒙洛迪诺在《大设计》(The Grand Design)一书中提出的“依赖模型的实在论”(model-dependent realism)。两位作者认为,迄今还没有一个物理模型能够解释现实的方方面面,因此,“不能说某个模型比别的模型更贴近现实”。这些模型只有和不同的理论相联结,才能构成完整的世界观。
1700219384
1700219385
一旦形成信念,并对它们效忠,我们就会用一系列强大的认知偏见来维持、强化它们。这些偏见足以扭曲我们的感知,使之与信念相符,它们主要有以下几种。
1700219386
1700219387
固着偏见(anchoring bias):在决策时对特定的参照物或信息过于依赖。
1700219388
1700219389
权威偏见(authority bias):重视权威的意见,尤其是在评价我们所知甚少的事物时。
1700219390
1700219391
信赖偏见(belief bias):根据结论的可信度来评价论证的强度。
1700219392
1700219393
证实性偏见(confirmation bias):为业已存在的信念寻找有利证据,忽视或曲解那些不利的证据。
1700219394
1700219395
除了上述偏见之外,还存在一种群内偏见,即更加信赖那些被我们视作同一群体的人,不太信任那些来自其他群体的人。这是因为我们的大脑是在部落生活中进化而来的,这使得我们非但会对信念作出这样的价值判断,还会对信念进行丑化和忽略,将它们看作是无聊的、邪恶的,或者两者兼而有之。
1700219396
1700219397
依赖信念的实在论在一种“元偏见”的推动下愈加深化,它的名字叫“偏见盲点”(bias blind spot),即能够在他人身上看到认知偏见,却对这些偏见对自身信念的影响视而不见。这种元偏见,即便是科学家都不能避免,他们受到“实验者预期偏见”(experimenter-expectation bias)的影响,容易注意、选择、发表那些和他们预期的实验结果相符的数据,同时忽视、抛弃、怀疑那些和预期不符的数据。
1700219398
1700219399
人类容易轻信,并容易受到一系列心理偏见的左右,这就是为什么在科学研究中,我们设置了内在的自我纠错机制。科研需要严格的双盲设计,无论是实验对象还是实验者,都对数据收集期间的种种条件不得而知。与同事的合作也至关重要。研究结论要在科学会议和同行评议的期刊上经受检验;研究要在其他实验室里得到重复。对结论不利的证据、对数据的矛盾解释,都要在分析中有所涉及。毕竟,就算你不主动提出对你的理论不利的数据和论证,别人也会提出,他们通常还会兴高采烈地在公开场合向你发难。这就是为什么科学研究必须具备怀疑精神,有了它,我们才能避开大脑设下的陷阱,摆脱依赖信念的实在论。(翻译 红猪)
1700219400
1700219401
1700219402
1700219403
1700219405
1700219406
外星人长得像人吗:怀疑论对科学的揭秘
1700219407
1700219408
进化让人“迷信”
1700219409
1700219410
为什么我们天生就会识别人脸,能透过模糊的窗户认出人影,可以在随机播放的电子声响中分辨人声,甚至在每日新闻中发现阴谋?这些都可以归因于人的启动效应(priming effect),即大脑和感官习惯用预期的模式去解释外界刺激。然而,不明飞行物研究者观测到火星表面的人脸影像、宗教信徒目睹圣母玛利亚在墙上降临、超自然现象研究者通过收音机与死者对话、阴谋论者坚信“9·11”事件是布什政府一手策划的……这些匪夷所思的事,人们为何也会相信?我把这些现象解释为“模式化”(patternicity),即人们习惯在混乱喧嚣中寻求有意义的模式。
1700219411
1700219412
长久以来,科学家都认为模式化是一种认知错误。认知错误分为两种:一是错误肯定(false positive):认定某事为真,其实为假(即寻找根本不存在的模式);二是错误否定(false negative):认定某事为假,其实为真(否认真实存在的模式,即“非模式化”)。2000年,我在《我们如何相信》一书中提出,人脑是一个信念引擎,是一个不断改进的模式认知器。它把自然界的一些模式与周围的点点滴滴进行联系,并形成意义。有时,A和B的确相关,有时却不尽然。当关联存在时,人们对环境的认知就得到提升,并作出对生存和繁衍有利的预测。在发现模式方面,人类可谓最成功的先行者。从低级线虫到史前智人,这种联想式的学习对所有动物的行为都至关重要。
1700219413
1700219414
遗憾的是,人脑未能进化出一个谬论监测网来辨别模式真伪,也没有一个错误探测器来调整我们的“模式识别引擎”(在这方面,还须借鉴科学及其自我修正机制和同行评审制度)。或许是这些错误认知并不会导致人类基因的灭亡,因而不必在进化过程中修正。
1700219415
1700219416
2008年9月,英国《皇家学会学报B辑》(Proceedings of the Royal Society B)刊登了美国哈佛大学生物学家凯文·福斯特(Kevin R. Foster)和芬兰赫尔辛基大学生物学家汉娜·科科(Hanna Kokko)合著的文章《迷信与类迷信行为的进化》(The Evolution of Superstitious and Superstition-like Behaviour)。文中运用进化模型印证了我的理论,并进一步指出,相信错误的模式虽然会付出一定的代价,但否认真实的模式更不可取。自然选择更青睐模式化。两位作者首先给出公式:概率×利益>代价(pb>c),即人们只有在利益高于代价时,才会采取行动。误把风吹草动当作危险信号,总好过把野兽的声音误认为风声,至少不会付出生命的代价。人们对估算并不在行,所以草木皆兵这样的事,宁可信其有,不可信其无。由此可见,相信多数的模式还是利大于弊。
1700219417
1700219418
通过一系列复杂的公式演算,包括外界刺激(树林里的风)和历史经验(关于野兽和风的经验),两位作者推断“无论是人类还是其他生物,个体在无法预测周边事物时,会混淆因果关系与非因果关系。于是,迷信就有了进化基础:出于生存和繁衍需要,自然选择会青睐许多不正确的因果关联。”
1700219419
1700219420
为了证明遗传选择模型,福斯特和科科指出,“在毒蛇遍布的地区,食肉动物对伪装成有毒的蛇会敬而远之”,甚至“大肠杆菌(Escherichia coli)细胞之类的简单有机体,也会出于对天冬氨酸(aspartate)的喜好,而向惰性的甲基化天冬氨酸(physiologically inert methylated aspartate)趋近”。
[
上一页 ]
[ :1.700219371e+09 ]
[
下一页 ]