1700803940
一位来自安德尔森癌症中心(MD Anderson Cancer Center)的临床研究人员,根据标准的化疗程序开始为她的一位白血病患者进行治疗。随后在治疗过程中,患者出现了一种有可能威胁生命的并发症,称作肿瘤溶解综合征(tumor lysis syndrome),如果不采取积极主动的治疗,就会导致其肾衰竭、心力衰竭,甚至死亡。沃森提醒她注意该并发症,并且让她立即采取措施。这就是人工智能如何能够协助医疗专业人士的最佳例子。
1700803941
1700803942
同时沃森也被用于临床研究,例如,在一个项目中,25名患有某种类型脑部恶性肿瘤的患者的基因组正在被测序,数据将会被发送给沃森。沃森的学习模型能比研究人员更快地发现其中的关联性。它还能确定不同药物组合的优先顺序,并且让医生就首先使用哪种药物做出更好的选择。
1700803943
1700803944
患者倾向于相信他们的医生是无所不知的。但是,事实并非如此,如今获取足够多的知识对人类来说是不可能的。利用人工智能具有重大意义且是不可避免的,而且它应该不会摧毁传统的医患关系。
1700803945
1700803946
技术以外的费用
1700803947
1700803948
最近,我偶然发现了一个令人着迷的研究,该研究给出这样一个结论:在人工智能的帮助下作出一个诊断,比不使用人工智能的价格便宜。500名随机选取的患者参与了仿真试验,医生的绩效和患者的治疗结果被用来与人工智能的序列决策模型相比较。人工智能模型花费了189美元,而通常治疗手段的花销是497美元。
1700803949
1700803950
我联系了作为该项目研究者之一的凯瑟·本奈特(Casey Bennett),他来自位于纳什维尔的森特斯通研究所(Centerstone Research Institute)。他很高兴与我分享了他们工作背后的细节和论据。
1700803951
1700803952
从我个人的层面来说,我工作的主要动力之一是关注我的祖父母,因为他们上了年纪并且因为各种各样的健康护理问题去了养老院。他们是需要继续服用药还是接受治疗?对于60%的人来说都会面临同样的情况,但对他们来说或许不是这样。服药或者治疗会导致戏剧性的副作用吗?那些副作用是可以容忍的吗?我们是否确实能让他们的健康状况更好?潜在的长期并发症(以及/或者开销)是值得的吗?
1700803953
1700803954
在医学界,医生们通常会做出有学识的猜想。当你看着你的朋友们和家庭面临这样的情况时,事情就会变得令你害怕。对于本奈特来说,临床应用人工智能的真实目标应该是帮助患者和临床医生获得他们所需的工具和信息,用以做出他们所能做出的最好决定。尽管他认为自主的人工智能总会有一席之地,但人类绝不会被完全排除在外。让机器与人类携手工作,将发挥出两者各自最大的优势。
1700803955
1700803956
需要克服的障碍依然存在,其中一个事实是,这些技术并没有切实反映我们思考问题的方式,这会导致认知失调,往往给与机器共同工作的人们造成困难。最近几年在将人工智能和其他创新科技有效应用到现实世界的临床实践时,本奈特和他的同事们将会一直面对各类挑战,但是他们一直在努力去找到一条出路。
1700803957
1700803958
关于医学上的人工智能应用,存在着严重的伦理上的担忧。出现最为频繁的是责任问题。倘若一个临床应用的人工智能犯了一个巨大错误,谁来负这个法律责任?如同像手术机器人等类似的技术,始终是医疗专业人员做出最后的决定,所以这并不是一个真的没有解决方案的问题。另一个问题是,来自循证医学的新指导方案和推荐意见以何种方式被结合到临床人工智能系统里?这些系统是否满足临床医护标准,这一点至关重要。
1700803959
1700803960
1700803961
1700803962
1700803963
采用人工智能和传统治疗所得出的治疗结果和所需费用的对比
1700803964
1700803965
斯坦利·M·夏普夏伊(Stanley M.Shapshay)医生质疑人工智能是否真的能成为医学的未来。他认为,先进的计算机技术或者人工智能需要得到验证,并且潜在地被集成到现代医学中,作为一种辅助,而不是作为医生的代替者。医患冲突在治疗上的价值就好像强效药物,是智能机器不能替代的。
1700803966
1700803967
2014年,医学现代化是首款实现IBM沃森的EMR系统(电子病历系统)。想象一下,当沃森得以集成到越来越多的医疗信息系统中时,会有多少可能发生。
1700803968
1700803969
沃森被授权存取城镇字典(Urban Dictionary),旨在帮助它学习俚语,并且因此能更加轻松面对会话语言。它逐渐学会了一些表达方式,例如,我的天哪!(OMG)、一团糟(hot mess),甚至还有一些更粗俗的言辞。尽管它是一个自然语言处理器,但它还是没有能力辨别俚语和脏话。当它开始使用下流语言的时候,开发小组不得不开发一个过滤器来保持沃森远离脏话,并且从其内存中清除城镇字典。会不会有这样一个时点,我们会无法阻止人工智能学习越来越多的东西?
1700803970
1700803971
友好的与不友好的人工智能
1700803972
1700803973
如果你问人们对人工智能的看法,多数人会想到科幻电影《2001:太空旅行》(2001:A Spce Odyssey)中的Hal 9000或者电影《她》(She)中的萨曼莎。但是,人工智能就在我们周围确确实实地存在着,在汽车里、电器里、智能手机里、亚马逊的能预测你下一个想购买什么物品的软件里,以及苹果公司的由语音激活的Siri里。像谷歌、Facebook和奈飞(Netflix)等这样的公司,多年以来一直投入重金用于深度学习(deep learning)技术的开发中。
1700803974
1700803975
大多数正在逐步发展的医学领域都产生了数量庞大的信息。因此,我们所面临的挑战不仅是如何分析这些数据,而且还是首先如何处理它的数量。我们仅仅占用伊利诺伊州阿贡国家实验室中被称为比格犬(Beagle)的超级计算机四分之一的存储容量(这一容量跟1831年伴随查理斯·达尔文旅行的那艘船的容量差不多),分析240个完整的基因组只花费了两天的时间,从而显著地加快了研究速度。
1700803976
1700803977
2009年,IBM公司的“深蓝大脑”计划(Blue Brain)曾尝试运行一个仿真试验,该试验由16亿个神经元和9万亿个突触连接(猫大脑的容量)。使用世界上最强大的超级计算机之一(拥有147456个处理器),仿真1秒钟的大脑活动耗时600秒。拥有上万亿个神经元以及远超过千万亿神经突触的人类大脑就更为复杂了。很显然,计算能力需要保持年复一年的不断提升。
1700803978
1700803979
另一台被称为鹦鹉螺(Nautilus)的自主学习超级计算机,可以存取从1945年开始数以百万计的报纸文章。这台计算机利用关于过往事件的海量信息,对于未来可能会发生什么,能够颇为成功地给出一些建议,例如准确地锁定了本·拉登的位置。
1700803980
1700803981
那些持续发展和不能自主学习的超级计算机为人类问了几千年的问题提供了答案。那些人机小组(human-computer teams)极有可能掌握着未来最大的希望,这是高德纳咨询公司于2013年发表在《新兴科技发展周期》(Hype Cycle for Emerging Technologies)上的报告中被着重指出的一个看法。在该报告中,高德纳公司副总裁及研究员杰基·芬恩(Jackie Fenn)概要性地阐述了关于人类与科技互动的可能情景。
1700803982
1700803983
通过观察那些新兴科技是如何被早期采用者所使用的,我们看到在实际工作中有三种主要的趋势:1.用科技增强人类,例如,一个配有可穿戴计算设备的员工;2.机器代替人类,例如,一个有认知能力的虚拟助手扮演一个自动化客户代表;3.人类和机器彼此协同工作,例如,与一名仓储员工合作的一个移动机器人能够搬运更多的箱子。
1700803984
1700803985
长期的负面结果或许包括一个精神分裂的机器人,实际上,一个这样的机器人曾被得克萨斯大学的研究人员进行仿真过。当他们用很多信息使计算机超载时,计算机会宣称其对一起恐怖主义行为负责,并且警告研究人员要引爆一枚炸弹。佐治亚大学的研究人员描述了一个实验,在实验中,他们教一组机器人进行作弊和欺骗,他们发现机器人通过试错的方法找出了自己的策略。
1700803986
1700803987
即便是只有最低智能的机器人也可以是残酷无情的。智能系统实验室(Laboratory of Intelligent Systems)的科学家们将一组机器人放到一个房间中,这个房间有诸如食物和毒药的东西。机器人越靠近食物,它就获得越多的点数。如果需要,这些机器人能够关闭它们的灯。几轮下来,几乎所有的机器人都关掉了他们的灯,拒绝以这种方式相互帮助。
1700803988
1700803989
根据大多数人的想法,认为目前还没有任何人工智能能够成为一个真正的智能实体。但是,它的发生只是迟早的事。或许很快就会有一个人工智能系统,它能设计出更好的、极其智能的系统,而这个系统是我们完全不了解的。还能有什么比这样一个系统对我们表示友好更令我们激动的呢?我们是否想要汽车有它们自己的观点,并且否决我们的决定而做出它们自己的决定?关于一个不友好的人工智能会给社会带来什么样的危险,人工智能专家詹姆斯·巴瑞特(James Barrat)和宇宙学家史蒂芬·霍金曾尝试发起一个公开讨论。
[
上一页 ]
[ :1.70080394e+09 ]
[
下一页 ]