打字猴:1.70162502e+09
1701625020
1701625021 当然,信息技术的进步也存在阴暗面(但毕竟这些进步不可否认而且很有用,尤其在医学领域):它会威胁我们的私生活,比如反恐斗争中大规模的窃听。为了获得大数据所带来的益处,我们愿意在牺牲自由和私人生活的这条路上走多远?老实讲,这里还有另一个问题:这是否还取决于我们的个人选择甚至政治选择?因为无论如何,我们放在网上的信息今天都已不是保密的。留在信息化世界中的一切信息,我的意思是所有的一切,我们的电子邮件、短信、通过联网设备发送的信息、网页上的浏览信息或社交网络的信息都是可以被破解的,要么就是已经被破解了。
1701625022
1701625023 我们天真地以为这些数据是私有的、保密的,例如我们在互联网上的浏览信息(不断通过“cookies”被追踪)、安装在我们个人电脑硬盘里的传感器、联网的电子表和体重秤发送至网上的信息,其实它们都极有可能被公开到现在所谓的“开放数据”中,以逐步向其所有人提供所有个人信息或者公开信息数据以供分析,没有任何法律或经济条件限制。很容易理解,这一开放过程对很多公司(了解客户需求进而满足顾客需求)及许多组织(如保险公司)用处极大,但在保护个人隐私方面会带来相当多的问题。
1701625024
1701625025 例如,今天医疗信息的保密变得十分困难。尽管你只是向你亲近的人、亲属、家庭成员或朋友吐露了对健康担忧的心声,而他们并没有恶意,只是在社交网络上向另一个你亲近的人告知这一消息,但从这个时候开始,事情就变得不可挽回了,信息有被公开的潜在可能性,比如可能被你的医疗保险公司破解并对其进行利用。大数据分析可以带来益处(对一部分人来说)又可以带来不便(对另一部分人来说),这仅仅是我们可以预见的几十个例子中的一个。
1701625026
1701625027 让我们来总结一下大数据的负面影响(不过还是有必要将负面因素与正面因素放在一起全面考量)。至少有五个原因表明匿名性和保护个人信息在很大程度上是一个圈套,无论CNIL [78]和相关部门做出多大的努力。首先,要知道代表我们电脑信息的IP地址就像电话号码一样透明:有人想查的时候,它就会显示这台机器的可能用户的名字,尤其是将之与任意定位数据对照时,几乎不可能躲过任何身份搜索。其次,要知道有很多简单、价格低廉的软件能够进行电话窃听,破解我们所有的电子邮件和短信。不要忘了,我们的前总统曾被政府部门窃听,尽管对外称设备是“安全”的(我说的确实是政府,因为不可想象连司法部长都对这些窃听不知情,难以想象他没有告诉首相,而首相有义务提醒总统)。再次,我们也必须知道,在2001年9月11日的恐怖袭击事件发生后,美国有关反恐怖主义的法律(著名的《爱国者法案》)允许有关主管部门无须特许便可直接访问所有美国公司存储的云端数据,当然也包括那些不在美国本土的美国公司。欧盟委员会曾严厉抗议,质疑这一立法的合法性,试图建立欧盟数据存储系统(这也解释了“仙女座”项目成立的起因),但最终项目没有进行下去。首先,美国方面依旧无动于衷;其次,在任何情况下,运用不同云端的公司自备的“软件后门”,执法人员依旧可以访问这些本应被保密的数据;而且,因为在任何情况下也不能保证这些系统不会在某一天崩溃,就算它们每天经受成千上万次的试验来达到这一目的!最后,让我们明确一点:大数据涉及的经济利益十分巨大。为了说明这一点,举个例子,特别是在美国,已经有越来越多的公司从事数据收集、存储和贩卖。这些数据对其他企业在明确客户定位、了解客户需求、进行广告宣传等方面十分重要。因此,正如我们在前面的章节中所提到的,2013年11月由战略和前景委员会发布的大数据专题报告指出,Axiom公司在2012年通过贩卖数据获得了超过10亿美元的收入,它声称自己掌握全世界超过7亿人的数据,平均每人1500个数据!
1701625028
1701625029 认知主义:低级人工智能向高级人工智能发展?
1701625030
1701625031 简单解释一下最后一个缩写字母“C”,即认知科学。在这里,我们必须区分清楚什么是已经成为现实的所谓低级人工智能(AI),什么是依旧存在于幻想之中的高级人工智能(在我看来永远都无法实现,而大部分人工智能专家和我有着不一样的观点)。粗略地说,高级人工智能是一个高级智能机器所具有的智能,这个机器不仅能够模仿人类智慧的外在形式,而且确确实实具备两种到目前为止有且仅有人类具备的东西(或者说至少只存在于智商较高的生物体中,比如猿和高等动物可能也具备这两样,只不过其水平较人类低一些):自我意识和情感——爱恨、恐惧、痛苦和快乐等。
1701625032
1701625033 低级人工智能仅停留在解决问题的层次上。它可以模仿人类的智慧,但仅仅是机械模仿,是纯粹对其外在形式的模仿。到目前为止,仍然没有电脑能通过著名的“图灵测试”,这就是证明。图灵测试是英国数学家设计的,在实验中,一个人与另一个他不知道是计算机还是人类的“隐藏”实体进行对话。计算机可以模仿人类的对话,但充其量就是一个糟糕的精神分析学家,听到“妈妈”这个词,就对您说“您的妈妈,哦,当然,您可以随意联想任何东西”诸如此类的话。对话进行一段时间之后,电脑显得越来越古怪,越来越愚蠢(必须承认),即使是最天真的参与者也会意识到他是在和一台机器进行对话,从而结束这个测试。
1701625034
1701625035 尽管如此,大多数认知科学家相信,终有一天我们会成功制造出类似于人脑的机器,电脑自己可能会有意识,还可以产生情感,然而很多生物学家认为必须拥有活的身体才能拥有这两个属性。我们先验地倾向于支持生物学家的观点,除了少数高级人工智能的拥护者。他们以唯物主义一元论为根据,称大脑本身只是一台机器,和其他机器没有区别,只是更复杂而已,不过是由有机材料构成,总有一天我们可以完完全全地复制出来,甚至将人与机器结合。这种结合技术正在成为现实,比如人工心脏,它确实是一个机器,但其表面包裹着生物组织。
1701625036
1701625037 因此他们产生了以下想法(在我看来是幻想):某一天智力和记忆也许能够存储在一种U盘里(或者几十年之后出现的类似产品),从而制造出真正的智能机器,也就是说,有自我意识和情感的机器。我们可以看到,一个从低级人工智能悄悄走向高级人工智能的乌托邦式幻想就这样出现在数学家、计算机专家、唯物主义论者的世界里。因为,机器现在可以做到——至少他们这么认为——人类可以做的几乎一切事情:它们是自主的,其自主程度差不多和人类一样,它们可以做出决定、学习、改正自己的错误、复制,很快就(变成乌托邦式幻想)会成功通过图灵测试。因此,库兹韦尔提出,人类可以与这些新的实体结合,从而实现长生不老。
1701625038
1701625039 我敢断言,他们突然对唯物主义哲学重新感兴趣,会遭到很多严肃的反对。
1701625040
1701625041 当然,如果我们只是简单地从“行为主义”的观点来看,仅仅从“外部”来判断这些机器,他们与真实的人类之间的区别可能有一天会难以分辨,甚至根本无从分辨。虽然目前还不是这样的情况,也不是没有可能有一台机器会在某一天成功通过图灵测试。但是,什么能够向我们证明这些机器具有“真正”的自我意识,有“真正的”情感——爱恨、欢乐与痛苦?机器模仿人类模仿到完美无缺也不能证明它不只是一个复制品。除非陷入被害妄想,否则声称这些机器有情感,但是它们却无法证明这一点实在很荒谬。尽管这些机器可以完美地模仿生命,它们也并没有生命,还比不过一只不知道自己在说什么的鹦鹉。有人说,大脑本身只是一台机器,剩下的是存在于大脑外部的思维。有一点需要弄清楚:必须要有一个大脑,还得是一个聪明的大脑,才能像牛顿一样发现万有引力。这个定律并不存在于我们的头脑中,它是被我们发现的,不是由我们发明或者创造出的,而是确确实实存在的。再比如,我们在童年学习的著名的三角形平等定律:数学定律需要大脑去理解发现,但没有大脑它们还是存在,因此在我看来二元论似乎无法否认。
1701625042
1701625043 不过,我希望有人可以从严格的一元论和唯物论的角度向我解释左派的大脑和右派的大脑之间有什么不同,或者,做加法时犯错的大脑和片刻之后反应过来纠正自己错误的同一个大脑之间有什么不同。我犯了一个错误,我去纠正它,难道这一前一后我的大脑不是同一个“生物性”存在吗?我认为,人类与机器的不同存在于人的精神生活里,因此,行为主义方法论顾名思义还停留在外在行为上,所以看不到两者的不同。
1701625044
1701625045 让我们丢弃这个没有尽头的形而上的争论,重新回到低级人工智能上来,它的好处跟唯物主义乌托邦(对这个我一点都不相信)无关,只跟存在的现实有关。
1701625046
1701625047 其实,在20世纪初,没有谁会打赌,哪怕只赌一分钱,说一台机器能够在国际象棋比赛中击败世界上最好的选手。这本来似乎是一个不太好笑的玩笑,幼稚的梦想,甚至可以被写进儒勒·凡尔纳的科幻小说。可是……自从这台名为“深蓝”的电脑在国际象棋比赛中夺得了世界冠军,我们知道了这是可能的。现在,除此之外,您电脑上的任何应用程序或者低配置智能手机的程序都能够做同样的事情!还有更多的例子表明低级人工智能领域在过去几年取得了非常大的进步。IBM设计的计算机取了一个叫沃森的名字,在2011年高调地参加了著名电视竞技节目《危险边缘》——在美国风靡一时的节目,并打败了两个冠军。对一台机器来说,这是一个令人难以置信的挑战:找到对应于自然语言编写的答案的问题(问题是用英语描述的)。通过使用Hadoop的软件(大数据处理软件),沃森已经能够全速处理两亿页的文字,这让它得以战胜其竞争对手——人类。有必要说明,它不仅能正确地“理解”问题,而且可以在几秒钟内读完所有的文章,这对人类来说要花费几辈子的时间,对一个提出的问题,它可以提炼出更多合适的答案(想象一下这个挑战有多艰巨:找到主持人给的答案背后的问题)。它的表现简直令人叹为观止。尽管我们仍然相信,高级人工智能只是一个乌托邦,但低级人工智能目前也已经远远超过人类的智能,带来许多现实问题。就像我提到的一封公开信中所讲的一样,这封信是由埃隆·马斯克、史蒂芬·霍金和比尔·盖茨签署的请愿书,旨在反对制造和使用著名的“杀手机器人”军队。这份请愿书涉及世界上参与这项研究的上千位研究人员。
1701625048
1701625049 这三位对科学和新技术满怀无限激情的人提醒我们关注无人驾驶飞机和远程操控导弹的危险。它们,通过遥控,用人来操控一些所谓的“高智商”的杀手机器人,能够自行决定是否“按下按钮”来结束一个人的生命。在信中,三位科学家或者说企业家提出了赞成和反对这些机器人的论据。他们承认,机器人可以在战争中投入使用从而代替人类,避免不必要的损失。但他们也说,危险是巨大的,大于它给人类带来的益处:
1701625050
1701625051 机器人的制作成本低廉,不需要稀有材料,这和原子弹不同,这种武器将很快被普及。不久,我们就可以在黑市上发现它,恐怖分子可以轻而易举获得它,独裁者可以通过它来奴役本国人民,军阀统治者可以通过它来进行种族灭绝,等等。
1701625052
1701625053 这就是我们的三个同类发出的警告,值得一听 [79]。
1701625054
1701625055 首先,让我们来听一下比尔·盖茨先生的原话:“我是对超级智能的发展保持担忧的人之一。目前,那些在我们的位置替代我们劳动、并完成许多任务的机器并不是超级智能。如果我们能够很好地进行管理,像这样的发展会变得越来越好。然而几十年之后,智能会带来新的问题。
1701625056
1701625057 我十分同意埃隆·马斯克的观点,但不明白为什么目前人们对这个问题并不担心。”
1701625058
1701625059 史蒂芬·霍金强调道:“成功地创造出人工智能是人类历史上伟大的进步。但,这极有可能是人类文明最后的进步。”
1701625060
1701625061 为什么是最后的呢?因为所有的一切都是根据达尔文的进化论选择而来的,智力也是,但在霍金的假设里,机器存在想要继续活下去的欲望,所以要消灭一切对它生命构成威胁的事物。既然存在这些智商超群的机器人,就像科幻电影里描绘的那样,能够在几秒钟之内读取百万页,知道我们所有的信息,知道只有我们人类有能力将他们的电源切断,因此自然而然,我们将会成为他们的头号敌人。一旦机器人控制了所有的信息服务器,也就是武器,它们将会变得有能力摧毁我们。
1701625062
1701625063 最后,我们来看看特斯拉公司CEO、绝顶聪明的埃隆·马斯克说了什么:“我认为我们应该非常小心谨慎。如果让我猜测什么最有可能对我们的生存造成威胁,我会说可能是人工智能。我越来越倾向于人工智能应该被监管这个观点,包括国家层面和国际层面上的,以确保我们没有在干蠢事。开发人工智能,相当于在召唤恶魔。”
1701625064
1701625065 马斯克言行合一,出资1000万美元给一个致力于人工智能领域安全性研究的基金,这告诉我们,制定人工智能的监管规范对人类自身的安全来说至关重要。
1701625066
1701625067
1701625068
1701625069
[ 上一页 ]  [ :1.70162502e+09 ]  [ 下一页 ]