1700515963
1700515964
一想到训练数据,他们就明白问题出在哪儿了:研究小组只是获得批准有权使用坦克有限的几天,所以他们将坦克开到不同地方,拍摄了大量位于不同伪装位置的照片,但没注意到那些天一直都阴阴沉沉的。返回后,他们拍摄了一些没有坦克的乡村照片,但那时的天空是异常晴朗的。用这些照片作为训练数据,算法就误认为晴天和阴天也是区分坦克的重要特征。所以,一个坦克探测器就变成了一个对军方毫无用处的“阴天探测器”了。从这个事件中我们总结的经验教训是:机器是能够学习的,但前提是你要让它学习对的东西。
1700515965
1700515966
现如今,随着基于数据训练的算法广泛应用于社会的各行各业,如申请抵押贷款、治安决策、个人健康建议等,上面这个问题所造成的负面影响日益凸显。很多证据表明,算法中暗藏着歧视和偏见。麻省理工学院的一名研究生乔伊·布兰维尼(Joy Buolamwini)发现,她的脸相较于那些肤色较浅的同学,更加不易被所使用的机器人软件识别。当她带上一个万圣节用的白色面具时,技术识别很顺利,可一旦取下面具,她就在机器眼中“消失”了。
1700515967
1700515968
问题出在哪儿呢?该算法虽然针对大量的人脸图像进行了训练,但这些数据中黑色皮肤的面孔较少。本应公平公正的人工智能,从数据中学会了人类的偏见,这种偏差导致算法生成了许多令人不可接受也难以接受的结果:针对男性的声音进行训练的语音识别软件识别不了女性的声音;某图像识别软件将黑人辨认为大猩猩;护照照片拍摄软件不适用于亚洲人,原因是它始终认为他们在拍照时闭眼了。硅谷的科技公司雇用的员工中有4/5都是男性白人,这正是布兰维尼创立算法正义联盟以对抗人工智能算法偏见的原因。
1700515969
1700515970
法律体系也面临着考验,申请抵押贷款、应聘工作、申领社会福利被算法程序拒绝后,人们有理由知道为什么。但是,由于算法是基于数据交互构建决策树的,证明其决策的合理性并不容易。
1700515971
1700515972
虽然有些人主张采取法律措施补救,但执行起来非常困难。2018年5月生效的欧盟《一般数据保护条例》的第22条规定:数据主体有权反对“完全依靠自动化处理做出的决策”。若个人对自动化决定不满,有权主张人工介入,以表达自己的观点并提出质疑。对于计算机所做出的任何决策,数据主体有权获得“有关所涉及逻辑推断的有意义的信息”。关于这一点,我只能表达我的个人观点:祝你好运!
1700515973
1700515974
人工智能领域一直呼吁开发一种元语言,机器可用它来证明自己的决策是合理的。而在此之前,我们必须谨慎对待这些算法对日常生活的影响。绝大多数算法都有其专长,不善于处理无规律的行为,当意料之外的事情出现时,算法只能选择将其忽略,而人类对这类场景却能表现出非凡的应变能力。
1700515975
1700515976
没有免费午餐的定理表明,在任何情境下都能做出准确预测的通用性算法是不存在的。机器学习的目标不是建立放之四海而皆准的通用模型,而是构建关于特定问题有针对性的解决方案。这个定理还表明,即使只向算法出示一半数据,它还是有可能将未出示的另一半数据伪造出来,以保证对它自己所进行的数据训练的完整性。但当需要分析的数据属于另一半未出示的数据时,它就会决策失准或失败。
1700515977
1700515978
数据本身永远无法自给自足,它必须与知识相结合。正是在这一点上,人类的思维和智慧似乎能更好地应对环境的变化并对全局进行把控——至少在目前看是这样。
1700515979
1700515980
[1] 原理同巴甫洛夫的条件反射试验。——译者注
1700515981
1700515982
1700515983
1700515984
1700515986
天才与算法:人脑与AI的数学思维 机器之间的战争
1700515987
1700515988
是改变和适应新挑战的能力,让AlphaGo得以诞生。谷歌的DeepMind团队用一段时间的“监督学习”构建了他们的算法,这就好比一个成年人帮助孩子学习成年人已经掌握的技能。作为一个物种,人类之所以取得进步,是因为我们积累了知识,并以比最初获得知识时更有效的方式将知识传递了下去。作为一个数学家,我也是用上大学的几年时间快速学习了前辈们近几个世纪发现的数学理论,而不是凭借一己之力去重新发现所有的数学知识,以此站到学科前沿的。
1700515989
1700515990
AlphaGo也经历了同样的学习阶段——我们称之为基础学习阶段。互联网上有数以百万计的棋局,其中不乏高手之间的对弈。这是一个极佳的资源宝库,通过检索就可以找到给对手致命一击的决胜杀招。这样一个庞大的数据库使得计算机能够建立一个概率的概念,即给定一个特定的棋盘位置,算法可分析出每一步落子对获胜的影响概率。仅考虑每一盘棋已有走法的优劣是不够的,因为未来的对手可能不会使用数据库中失败棋手所用过的棋路。这个学习阶段为AlphaGo下围棋提供了必要的基础准备,但仅仅使用这个数据库还是不够的。
1700515991
1700515992
第二阶段被称为强化学习阶段。从长远来看,它为算法自我的发展确立了优势,提供了可能。算法通过自我对战、强化学习来提高对弈水平,即与之前的“自己”不间断地训练以提高下棋的水平。如果某些有望获胜的棋招失败了,算法就会修改这些棋招的概率。这种强化学习会综合生成大量的新数据,有助于算法发现自身可能存在的弱点。
1700515993
1700515994
局部最优是这种强化学习的弱点之一。机器学习有点像攀登珠穆朗玛峰,如果目标是爬上这座世界上最高的山峰,但是此时你既不知道自己身处何处,又被蒙上了眼睛,那么可选择的策略就是以你所在位置为起始点,如果下一步能够爬得更高,那么就继续往上爬,如此往复,直至抵达顶峰。按照该策略,你可以抵达所在地理区域内(当前环境下)的最高点。一旦越过这个顶点,高度就会下降,你就有可能滚落下来。但这并不意味着,在不断努力之下,你会抵达山谷对面另一座更高的山峰。这个高点是相对的,在数学中被称为“局部极大值”。就好比你好不容易爬上一座山的山顶,却发现它不过是在高耸的群山环绕下的一座小山包。如果AlphaGo训练的算法只能在局部极大值的情况下击败对手,那终极结果会是怎么样的呢?
1700515995
1700515996
在与李世石对战的前几天,欧洲冠军樊麾帮AlphaGo进行赛前集训时发现了它的一个弱点,似乎就是这种情况。这或许说明人类的下棋数据将算法导向了局部最优,而实际更优或者最优的下法与人类的下法存在一些本质的不同,即人类在事实上“误导”了AlphaGo。算法很快就学会了如何重新评估自己的落子,以最大限度地提高再次获胜的概率。是新对手把算法“逼下山”,促使它找到了再攀高峰的新方法。
1700515997
1700515998
DeepMind团队目前又开发出了新一代的AlphaGo—AlphaZero,它打败了曾书写历史的各版本AlphaGo前辈。这个名字的由来是:由于是通用棋类人工智能,因此去掉了代表围棋的英文“Go”;没有使用人类的知识,从零开始训练,所以用“Zero”;两者相结合就得到了“AlphaZero”。它已不再学习人类的棋谱、走法,而是完全依靠自我对弈来迅速地提高棋艺,从而走出人类对围棋认知的局限与定式。就像雅达利的游戏算法一样,给定棋盘上361个(19×19)交叉点以及它们的得分规则,然后在自我对弈中试验棋步。沿用最初在构建AlphaGo时所使用的强化学习策略,由“白板”[1] 状态开始“自学成才”是AlphaZero的独门秘籍。DeepMind团队甚至也为新算法呈现出来的强大能力而感到震惊:它已不再受人类的思维和游戏方式的限制了。
1700515999
1700516000
AlphaZero自我训练的时间仅为3天,完成的自我对弈棋局数量就达到了490万盘。人类花3000年才能实现的,它却只用了3天。在对阵曾赢下李世石那一版的AlphaGo时,AlphaZero取得了100:0的压倒性战绩。经过40天的训练之后,它就所向披靡了。它甚至能够在8小时内学会如何下国际象棋和日本将棋,水平甚至超过了市面上两个最好的国际象棋程序。
1700516001
1700516002
AlphaGo项目的负责人大卫·西尔弗博士解释了这种“白板”学习在多个领域的影响:
1700516003
1700516004
如果能够实现“白板”学习,就相当于拥有一个可以从围棋移植到其他任何领域的桥梁。这种算法是通用的,它会将你从所在领域的细节中解放出来,它普遍适合于任何领域。AlphaGo并不是要打败人类,而是要发现做科学研究意味着什么,让程序能通过自学最终学习到哪些知识。
1700516005
1700516006
DeepMind的口号是:首先解决智力问题,然后用它来解决其他问题。他们确信未来已在路上。但这项技术能走多远?它在创造力方面能与最优秀的数学家相媲美吗?能绘画或是创作音乐吗?能破解人类大脑的秘密吗?
1700516007
1700516008
[1] 指所有知识均由感官和经验而来,即从零开始的学习。——译者注
1700516009
1700516010
1700516011
1700516012
[
上一页 ]
[ :1.700515963e+09 ]
[
下一页 ]