分享好友 实时资讯首页 频道列表

医学AI有新突破,顶级期刊连放大招

2017-03-03 15:0133250
          很久以前,人工智能(ArtificialIntelligence,AI)给人的感觉还像是科幻片里的故事,直到去年3月,Google旗下的DeepMind研发的围棋AI,AlphaGo,战胜了围棋老将李世石,一夜之间AI的名声火遍大街小巷,人们不管懂不懂AI、懂不懂围棋,都对这个话题进行了各种掺和。后来,正在围棋界还对它不能释怀之际,它跑去玩起了电竞,再后来,它又说要进军医学了。

    此时,我们才真正关心起它来。不看不知道,原来,AI想学医已经想了30多年了!大概之前还没有太好的成绩,至少没有“威胁”到医生的存在,所以在我们普通医生眼里都只是小透明吧。然而这段时间大AI们的各种活动又频繁起来,除了AlphaGo的升级版Master又去围棋圈搅个血雨腥风,医学界也频频出现它们的身影。去年底到今年初短短三个月内,就连续有好几篇新的研究发表在医学顶级刊物上;尤其是Nature今年1月刚刚增设的子刊NatureBiomedicalEngineering,一上来就连放三篇人工智能研究,相当惊艳。

    JAMA:糖尿病视网膜病变的高灵敏、高特异诊断

    AI的“深度学习”技术,包含一系列的算法,使程序能够自己通过对一个庞大的样本数据集进行学习、优化自身,来实现某种行为。这份JAMA上的研究采用的算法是深度卷积神经网络(convolutionalneuralnetwork,CNN),用来进行图像识别与分类。

    研究者用128,175张视网膜照片作为训练数据库,让AI学会自动检测糖尿病视网膜病变和视网膜黄斑水肿。这将近13万张图片是由54名美国证认的眼科专家和高级眼科住院医师进行分类与分级。

    经过8个月学习期,研究者让AI分别在2个新的数据库中验证它的两个操作点,一个操作点做高特异性选择,另一个做度灵敏度选择。新的数据库分别为EyePACS-1和Messidor-2,来自两个眼科临床机构,包含9963和4997张视网膜照片,并由至少7位眼科专家进行分类与评级。对数据集EyePACS-1,AI的高特异性操作点识别的灵敏度达到90.3%,特异性达到98.1%;对Messidor-2,AI识别的灵敏度有87.0%,特异性有98.5%。用AI的第2个操作点即高灵敏度操作点识别,对EyePACS-1的灵敏度有97.5%,特异性有93.4%;对Messidor-2的灵敏度有96.1%,特异性有93.9%。

AI

    EyePACS-1数据集中AI的灵敏度和特异性曲线。8个圆点代表8位眼科专家,两个棱形分别代表AI的高特异性操作点和高灵敏度操作点。

    这份研究是去年12月发表,表明AI的图像识别功底已经有了很了不起的特异性和灵敏度,跟人类眼科专家不相上下。不过研究者也说了,它的临床应用还有待进一步评估。对了,本研究也是由Google公司领导,与美国、印度多个知名研究机构合作进行。

    Nature:开启皮肤癌的智能手机筛查

    皮肤癌的诊断,通常是靠医生的视诊发现可疑病变,再进一步通过皮肤镜、活检等手段确定。但皮肤纹理如此细密而变化多端,也给视诊增加了难度。所以,这份来自斯坦福大学的研究也采用了深度CNN算法,来对皮肤图像进行识别。

    它之所以能登上当期Nature的封面,想必是由于它宏伟壮丽。第一是想法有魄力,他们不仅是帮助医生诊断,简直是踢馆——要让人们用智能手机就可以进行皮肤恶性病变的筛查。第二是数据量很暴力,之前的皮肤AI研究都要依靠专业图像,如皮肤镜图像或病理活检图像,不易获得,所以数据量比较小,最后训练出来的小AI们放到真实的临床环境中效率就不高;但要用手机拍照的图片训练又会受到缩放、角度、光线等因素的影响,恐怕一样效率不高,怎么破?

    本研究先用目前世界上最大的开源图像识别数据库ImageNet中的128万张图片进行预训练,再用自己的129,450张图片的数据库进行调谐,其中包括3,374张皮肤镜图像。第三是技术(说起来)很简单,前人的研究都有许多预处理步骤,如病变分层、提取特定表现的视觉特征等,但本AI的训练是“端对端(end-to-end)”的,只有原始像素和图像标签,用单一网络同时对付普通照片和皮肤镜图像。

    最后在新的图片数据集中进行验证,这些图片都事先以活检来确认过。本AI与至少21位皮肤专家的诊断进行两场比拼。第一场,是鉴别角化细胞癌与良性脂溢性角化病,即识别最常见的癌变。第二场,是鉴别恶性黑色素瘤和良性的痣,即识别最致命的癌变。

ai

    三幅图分别为角化癌照片、黑色素瘤的照片以及黑色素瘤的皮肤镜图像识别。曲线是AI对病变识别的灵敏度-特异性曲线,每个圆点代表一位专家的识别,绿点是专家们的平均值,绿色误差线是标准差。

    可以看到,大多数圆点都在蓝色曲线以下,平均值也是。说明专家们判断的特异性和灵敏度都输给了AI。

    乍一看,这个研究确实像踢馆。不过仔细一想,确诊是离不开活检的,还有其他临床信息,而照片识别只是初筛。预计到2021年就会有63亿台智能手机装上这样的App,为大家进行皮肤癌的早期筛查了。

    NatureBiomedicalEngineering:罕见病的诊疗建议及监控

    上一篇研究提到,数据量越大,训练出来的AI就越准确。那么罕见病怎么办?原本就没有这么多病例,是不是可以退出江湖了?中山大学的研究者证明给你看,少量数据不仅一样可以达到很高的识别准确度,还可以进行风险分层、给出治疗建议,而且已经进入临床试验了!

    又是CNN算法,这回是识别先天性白内障(CongenitalCataract,CC),人群中发病率只有1%,还多出现于欠发达地区,医疗资源相对匮乏,于是需要更高效的监控。

    这位AI宝宝是有名字的,叫CC-Cruiser,即CC巡洋舰。它的训练数据库包括带有诊断标记的410张各种严重程度的CC图片和476张正常图片,那410张CC图片又各自带有严重程度标记(晶体混浊面积、密度、位置)和治疗建议(手术或随访)标记,就这么低调华丽有内涵。

    之后进行了多项验试。包括电脑模拟测试(insilicotest)、57例临床样本的临床试验、53例样本的网络图片测试,CC-Cruiser的表现都很令人满意。以人类专家意见为参考,对前两者的诊断准确率都在98%左右,网络图片质量参差不齐,但也达到了92.45%;对风险评估、诊断建议的判断也同样出色。接下来是有趣的“大海捞针试验”,模拟CC的发病率,混淆100张正常图片和1张CC图片让它识别,连测3组,CC-Cruiser都全部通关。最后在跟人类眼科医生的比拼中,不出意料地赢了。

    这么优秀的AI,给它发个规培证吧~研究者建立了一个云平台,来帮助非专科医院进行诊疗。

    地方医院里来了一位患者,他的人口学信息、联系方式连同眼科检查资料都一起上传到CC-Cruiser处理器和云平台,让它进行诊断、风险评估并给出治疗建议。如果建是手术,则同时给中国卫生部儿童白内障计划(CCPMOH)的专家发送提示进行人工确认,专家和地方医院、患者进行沟通,制定治疗计划。

    NatureBiomedicalEngineering:脑瘤的术中快速诊断

    图像识别除了CNN,还有别的算法。在一项关于脑瘤术中快速诊断的研究中,研究者用采一项叫受激拉曼散射显微镜(stimulatedRamanscattering,SRS)的技术,生成高度模拟传统的HE染色病理切片的新图像,称之为受激拉曼组织学(stimulatedRamanhistology,SRH)图像。病理医生对SRH图像和传统HE图像做了比较,确认了SRH的诊断作用。

    AI在这个研究中并不是主角,而是锦上添花。虽然SRS比传统的病理切片节省了很多组织样本预处理的时间,大大提高了术中诊断的速度,但研究者仍嫌病理医生人手不够,希望用AI来服务大众。

    这回采用的算法叫多层感知机(MultilayerPerceptron,MLP),更适应目前常用的计算机的处理能力。研究者用来自101名患者的12,897张SRH高倍视野图片建立训练库,同时也加入了一个外部的开源图像数据库WND-CHRM的2,919张图片,让MLP进行迭代,直到诊断的预测值和观察值差距最小。

    MLP根据神外医生做出决策的需要,对图像进行四种分类:非病变组织、低级别胶质瘤、高级别胶质瘤和非胶质肿瘤(包括转移瘤、脑膜瘤、淋巴瘤和成神经管细胞瘤)。用了30个案例对MLP进行验证,结果它在样本层面能做到100%区分病变和非病变;对单个显微视野的识别则能达到94.1%的特异性和94.5%的灵敏度。在病变样本中,MLP能以90%的准确率区分胶质瘤和非胶质瘤。

ai

    a,MLP对30个样本的病变与非病变鉴别;b,MLP对胶质瘤和非胶质瘤的鉴别;c,MLP对30个样本进行4种分类的总体情况。NL,非病变;LG,低级别胶质瘤;HGG,高级别胶质瘤;NG,非胶质肿瘤。

    研究者称,这个结果已可以满意了,AI可以帮助病理医生进行术中快速诊断,并弥补医生的个体水平差距,但将来还要研发更准确、更细化的方法。

    NatureBiomedicalEngineering:神经假体的精确控制

    前面的研究都是在诊断上下功夫,最多给出治疗建议,但它能切实地进行治疗,改善病情吗?这项来自伦敦帝国理工学院的研究就是一个成功的探索。

    被截肢的患者装了假肢,如何恢复自主运动功能?靶向肌肉神经移植术(targetedmusclereinnervation,TMR)是本领域的一个突破,例如将正中神经接到肱二头肌长头。之后需要检测相关肌肉神经的电活动信息,来实现患者对假肢的控制。

    传统的做法是用两个电极检测整个肌肉(或肌群)的电活动,但由于位置太模糊,容易跟邻近肌肉的信息发生交叉,不容易做到精确控制。本研究则使用了至少50个更小的电极紧密排布,使得检测到的信息更为细致丰富,可获得单个神经元的电活动信息,并使用一种叫支持向量机(supportvectormachine,SVM)的机器学习算法来处理,与传统方法比较,精确度有很大的提高(97%VS85%)。

ai

    a,上图:传统方法用两个电极记录肌电信号。下图:高密度肌电系统使得AI能够识别单个运动单元及其放电率。b,c,示例盂肱关节截肢并TMR术后患者,用高密度肌电图解码神经驱动(b,虚线区为神经移植区域)。给予3个电极阵列来收信肌电信号(c)

    不过从图上看,很显然这么个庞然大物携带起来肯定不方便。但这至少提供了一种思路,研究者也会在将来寻找更好的设备,或开发新的方法来解决。

    原文:Man/machineinterfacebasedonthedischargetimingsofspinalmotorneuronsaftertargetedmusclereinnervation

    如此看来,AI在医学圈的事业好像终于起飞了呢。

    近日又听到围棋圈传出4月要进行人机大战第二季的消息,这回对擂双方是AlphaGo和柯洁。柯洁已经算是围棋界百年一遇的奇才了,但现在连对战国产围棋AI“绝艺”都有些吃力,人工智能的发展确实令人震惊。而且,听说这回是AlphaGo在围棋界的最后一战,之后大概就潜心学医了吧。

    至于那些“AI要替代医生、我们的存在还有没有意义”之类的言论,向来心大的麦子觉得,我们发明的一切东西难道不都是为我们所用的吗?况且,还有小型研究要研发写病理报告的AI,给病理医师腾出认真读片的时间呢(Arch.Pathol.Lab.Med.(2015)139,929–935.),说不定很快临床医生就有病历AI、科研人员就有论文AI了。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
反对 0
举报 0
收藏 0
打赏 0
同类
客服