编辑:zhangyan
责任编辑:SONG
人工智能预测死亡率
加州大学旧金山医疗中心
谷歌将人工智能应用于两个医疗中心的电子健康记录数据中,这些数据来自于在该中心住院超过24小时的21.6万名成年患者。
研究人员在文章中解释说:“我们有兴趣深度了解能否在广泛的临床问题和结果中产生有效的预测。因此,我们选取了多种结果,包括重要的临床结果(死亡)、护理质量的标准衡量(再入院)、资源利用率的度量(住院时间)、病人问题的理解程度(诊断)。”
芝加哥大学医学中心
概念验证研究发现,该算法能够准确预测死亡率、住院转诊率、住院时间和出院诊断。而且在所有情况下,这种方法都证明比先前公布的模型更加准确。
通过这项研究,人工智能在根据加州大学旧金山卫生系统的数据预测病人死亡率时准确率为95%,而根据芝加哥大学医学系统的数据,准确率为93%。
末日人工智能机器可能引发核战争
这次的预测,比传统的只是增强早期预警评分的预测模型更准确,它使用了许多因素来帮助医生确定病人的病情。
但现在正值人们热烈讨论应用人工智能的潜在好处和风险之际。网络安全风险和所谓的“末日机器”(doomsday)可能会对该技术推动经济增长的潜力造成破坏,专家们正在权衡人工智能可能带来的长期影响。
谁害怕人工智能?
FDA局长 Scott Gottlieb博士
医疗保健依赖于一系列复杂的信息,越来越多人认为适合使用人工智能。食品药品监督管理局(FDA)局长Scott Gottlieb在今年早些时候的一次演讲中就讨论到人工智能的前景。
然而,这项技术也带来了重大挑战。
家庭医生米哈伊尔·瓦尔沙夫斯基(Mikhail Varshavski)周二在福克斯电视台(Fox)《老友记》(Friends)节目中说,将大量的健康信息联系起来可能对患者有益,但数据隐私是关键。
他说:“让我担心的是这些数据会有什么样的作用以及这些数据的拥有者是谁?作为一名医生,我希望这些公司利用这些数据造福于患者,而不是企业本身。”
家庭医生 Mikhail Varshavski
他补充道:“机器会犯错,有时他们会因为错误的数据而犯错,需要对这些东西的作用进行监督。”
MAVEN备受争议
MAVEN
即使在谷歌公司内部,人工智能的应用也被证明是有争议的。
MAVEN这个有争议的军事项目,想要利用人工智能改进无人机的目标定位,成为导致谷歌内部矛盾的一个来源。
今年4月,谷歌的3100多名员工联名签署了一封致公司首席执行官桑达尔•皮查伊(Sundar Pichai)的信,要求他把谷歌退出该项目。
AI的研究现状
对“Big data”进行研究数据分析,发现自2000年以来,美国联邦政府投入该领域的总经费约12亿美金,有152个机构,该方向开展了801个项目。专家约365人,专家地图分布如下:
以上数据由LINKMedicine独家提供,更多精细病种分析,请咨询乐美助理,微信号【lemeizhuli】
参考资料:
-
Nature杂志
-
谷歌官方网站