人工智能技术在医学领域应用与前景
时间:2020-09-01 08:05:00 来源:达达文档网 本文已影响 人
人工智能技术在医学领域的应用与前景从全局整体背景上介绍了人工智能技术与临床医学结合以后已经取得的成果,未来的发展前景和美好展望以及实际中碰到的一些核心挑战。一、人工智能、机器学习、深度学习概念什么是“人工智能”、“机器学习”、“深度学习”?这三个概念现在的媒体经常会混为一谈,使大家一头雾水。如果我们回到历史里追溯“人工智能”整体发展轨迹,就会很清晰的得到这三个术语的原本概念。1. 人工智能概念从40年代末到50年代初,由于计算机的发明和逐步使用,人们想象,如果有了强大的运算能力,是否可以产生一种智能的程序,从而逐渐替代一部分人的工作。这个想法掀起了“人工智能”的热潮。那时候,计算机的计算算力虽然比传统人工有了很大提升,但依然很有限。在当时阶段,实际上更多的是“人工”智能,最好的产品叫做“专家系统”。它是由大量的专家手动编制一系列规则,形成知识库,然后由符号推理形式,阐述最后结果。这是符号学派的路径。这条路后来很快也难以为继。由于机器是单纯的接受方,不能主动做改变自己逻辑的事情,所有的事情必须由人类专家一条一条的以规则化的方式去做,非常僵硬。而它背后的基础,谓词逻辑又是一个非常刚性的框架,因此导致能表述的现实世界问题非常有限,更多的是一些玩具应用。符号学派的热潮很快消退,到70年代几乎无人提及。2. 机器学习的概念符号学派的失败引出了新的想法,人们思考从另外一条路径来做。从统计角度,可以把所有的现实问题都转换成概率问题。因此,去寻找现实世界问题的解决方案就等价于寻找一个概率分布。基于这样的思路,于是有了初步的“机器学习”概念阐述。因此,80年代 “机器学习”术语开始出现。当时更多的是从传统的统计方法开始实践,应用最多的是朴素贝叶斯方法。其典型的应用就是垃圾邮件过滤,这是到目前为止仍最为简单有效的一种过滤方式。于是终于产出了能够实用化的一些产品。但是,我们发现单纯从统计方法出发,可能会产生另外一些问题,因为统计模型一般都是基于具体问题设计的参数化模型,我们仍然需要去手工建模,而这些建模工作就是一个非常耗费精力的过程。3. 深度学习的概念从2010年起,神经网络的一个分支、即深层神经网络这一类模型,终于有人找到了能很好地训练它的方法,实现自动去做特征抽取、表达抽取的工作。从此,“深度学习”这个概念就开始火了。所谓“深度学习”仅仅是特指深层神经网络的一个应用。二、机器学习的典型问题范畴机器学习分为有监督学习、无监督学习和表征学习。1. 有监督学习概念:样本集里面的问题,需要通过人或者其他的方式给出一个标准的答案,模型所做的事情就是以后碰到相似原始数据的时候,能够尽量的贴近标准答案,越接近标准答案,模型评估效果越好。分类:分类最终的目标变量是A、B、C这样的离散集合里具体一类。我们做肺部结节检测,发现结节后,它到底是良性还是恶性?这是一个典型的二分类问题。回归:是指最后这个目标变量是一个连续变量。最简单的回归方法是线性回归,表达力很有限。案例:比如临床上要分析血液里面的载脂蛋白和低密脂胆固醇这两个指标之间的关联性,那么就会套用一个回归模型来建立这样一个关系。2. 无监督学习概念:指标准答案不存在或者不易定义,我们希望通过一些更为高层、抽象的规则刻划,让机器自动去发掘原有数据中间的一些特别特征或结构。聚类:是把原始的数据、样本,按照某种特征分离成若干相似群体。根据基因测序结果或者根据生物芯片对于突变的分析结果,在分子分型和临床表现角度,把患者按相似性进行划分,分成一个个小的类别。这些不同的类别,分子分型和临床表现上有很强的相似性,可以对这一类患者采取相似疗法,以期获得相似效果。降维:是对于很复杂、很高维度、需要很多特征来表达的数据空间,寻找其内在的冗余性,然后把冗余的部分去除,变成一个比较低维度、好处理的形式。案例:癫痫患者往往需要做脑电波监控。脑电信号在头部采集,头部会贴两三百个电极,每个电极收集的信号都是完全独立的,都是一个时序特征。所有信号全部采集在一起分析,未必能很好地预测癫痫患者的发病时间或症状强弱的特性。因此需要寻找所有这些电极中的冗余点在哪,是不是电极信号需要组合一下或者筛选出某些主导电极,更好地刻划关联性,更好地预测癫痫患者的发病情况?这是一个降维问题,要将原有两三百个电极采集信号,转换成只有十几维的时序信号,这些信号与目标结果由最强关联性的信号来做最后的模型。3. 表征学习概念:表征是指问题可以用不同形式来表述。有些表述形式很方便求解问题,而另一些表述形式不方便求解问题。案例:分解质因数,如果用现有的数字体系,是一个非常难的问题,尤其是大数的分解。如果改变问题的表述方式,将数字的表示法更改,这个数字不再用固定底数幂加和的形式来表达,而是用一系列质数幂的乘积来表达,分解质因数就不是问题。因为原始表示法已经表达了最终要分解的形式。表征学习有很多应用,在非医疗领域,如机器翻译、图像识别这些问题,都经常使用表征学习的方法,将图像、文本或者声音这些比较稀疏、高维度的信号,转换成一个稠密、低维度的向量。基于这个向量,我们可以更好地去刻划原有数据之间的相似性或内在结构,然后去更好地建模。4. 总结深度学习整套模型方法从根本上改变了原始问题、原始数据领域的表达形式,把原有纷繁复杂的数据结构转换成一个更容易分类、更容易处理的数据形式,最后达到比较好的效果。三、当前医疗领域深度学习应用热点方向当前宣传的最火的就是深度学习。因为它的表征处理能力,可以很好的把很多现实问题转换成可以处理的形式。深度学习擅长处理的就是高维度、稀疏的信号。图像就是这些信号中一种有代表性的形式。医学影像处理应用很明显必然是一个热点方向。除了医学影像处理以外,临床里边还有很多其他问题域,比如时序信号处理、临床数据的信息提取等等,这些虽为很好的问题域,但都不及图像处理容易得到结果。医学影像处理典型的四大类问题是:影像分类、目标检测、图像分割和影像检索等。都能对应到日常临床应用里的一些痛点的、比较浪费人力的问题。四、前沿研究成果以下分享临床问题领域把握比较到位、得到的结果也比较好的一些论文。因为都是针对医学影像数据,采取的建模方法都是类似的,基本上是基于CNN做各种模型变换,最后得到结果。1. 基于乳腺钼靶影像的病变检测乳腺钼靶是常见的乳腺癌早期筛查方法,它的诊断难度其实不算大。如果有一个模型能够有效地检查钼靶影像中间异常密度区域,就可以很好地降低人工筛查的工作量。在这篇文章里,达到的结果接近人类专家的平均水平,这是一个非常了不起的结果。2. 脑部核磁共振影像中的白质高信号灶分割为什么关注白质高信号灶?因为一旦核磁共振上面发现脑白质里有异常信号表达的时候,很有可能说明,在未来的一段时间内患者容易发展出帕金森氏症,所以它是预测帕金森氏症的一个有力指标。这里最重要的是怎么能准确地分割出脑白质的高信号灶。这篇论文用的也是相对比较传统的模型组合,最后得到的分割效果接近了人类专家的水平,也是一个不错的结果。3. 基于皮肤镜照片的皮肤癌分类诊断这是斯坦福做的之前引起较大影响的论文,结果已经达到了人类专家水平,甚至超过了大部分人类专家,接近了一些非常有经验的专家。而它用的结构却是非常传统。深度学习模型本身就是一种具有非常强表达力的模型,那么我们再去构建很复杂的网络结构、增加很多参数的话,其实很可能会变成过拟合的状态,反而无助于结果的一般化。所以,最重要的是我们如何能拿到足够多的、有标注的、高质量的数据集。数据集的规模越大,数据质量越高,最后能达到的效果一定会越好。相比于机器学习领域中大家争先恐后地去寻找新的网络结构、新的激活函数、新的优化方法的趋势,我们在临床需求落地到具体场景时,更应该关注的是原始数据怎么取得,怎么能以比较低的成本拿到高质量的数据。因为只要解决了数据这一点,建模这一步上面,其实并不存在决定性门槛。4. 基于数字病理切片的乳腺癌淋巴结转移检测这一篇是Google Brain给出的,对高分辨率的数字病理切片,基于Google?Inception Net的网络结构去做特征提取,最后进行分类,然后刻画出来的乳腺癌细胞在组织上面的分布情况。它的检测效果达到了人类专家水平。且在与Google有合作的几个医院里,用训练集之外的真实数据去验证的结果仍然相当不错,这对于数字病理切片分割和性质的判断是很有应用前景的。5. 基于眼底照片的糖尿病性视网膜病变检测这篇是Google Brain的结果,仍然是以Inception Net为基础的模型结构。本身眼底镜影像相比于其他影像最麻烦的地方在于,眼底镜之间的数据异构性太大,不同人拍摄出来的眼底镜的曝光程度、偏心程度、视野范围,都有很大的变异性。如何很好的在预处理阶段尽可能的消除这些变异性影像,是它做的重要工作。最后达到的效果也是相当不错,判断视网膜病变严重程度的准确率和人类专家持平。6. 胸片骨减影应用通常来说,面向的数据集都是断层扫描,因为断层扫描能够获得尽可能多的数据。但是,断层扫描单次检查对于患者的辐射量很大,用X射线要反复去切患者身体,辐射量要比做一次X光胸透大得多。我们想,有些患者是不是可以从单次胸透这种以很低剂量接受的检查的结果里面,发掘出来尽可能多的信息。胸透之所以提供信息量有限,是因为胸透是一个平面的叠加,把骨骼密度和人体里面软组织的密度分布情况,都叠加在一起,很难看清楚细节,谁也不知道这一部分吸收的X射线,到底是因为哪个组织产生的。我们看软组织时,会希望把骨骼引起的影响给消减掉,也就是说把骨骼的影子去掉。怎么去除骨骼影这个问题很早就有人思考。医疗影像仪器制造商想了一个很聪明的办法,他考虑软组织和骨骼对于不同能量的X射线吸收特性不一样,那就先用低能量X射线拍一张,间隔很短时间后,再用高能量X射线拍一张,然后基于这两张照片上面不同组织的吸收特性不一样,做一个建模,然后利用数学方法把这个影减掉,这就是DES,也就是双能量数字减影技术。它可以拍出几乎看不到任何骨骼影子的软组织照片,但是DES技术有一个先天技术缺陷,是两次拍摄之间有一个间隔时间。人是活着的,人体的组织在不停地蠕动,在间隔过程中,器官可能会变形,可能会移位,然后会造成DES技术拍出来的软组织照片有很多伪影,这个伪影会误导医生。在这个文章里面,它利用深度学习方法,基于单张传统胸透照片剔除其中的骨骼痕迹,得到的结果比传统DES摄影的软组织细节效果更好,也没有DES技术中产生的软组织伪影,这一篇文章是很有启发性的。五、医学数据处理方向、成果、挑战1. 医学数据处理方向一是临床信息的提取。包括我们如何去把传统的非结构化文本病历进行电子化、结构化,转变成可分析、可处理的结构化数据。二是掌握结构化数据。谁掌握了越多的可分析的结构化数据,谁就能做出越多的临床科研成果,数据是最核心的价值。零氪科技开发了Fellow-X自动结构化引擎,可以让95%以上通过HIS系统对接的电子病历,自动转化成可分析、可处理的结构化数据,极大的降低了结构化的工作量。还有剩下的只能靠人工部分,也设计了一个很好的双录入加QC的比对流程去处理那些很难处理的少量病历。2. 医学数据处理成果基于结构化病历的数据,得到成果。其中包括肺部结节的检测模型、重要并发症的风险预测。现在做的是中性粒细胞减少症、血红蛋白减少症、血小板减少症这些的风险预测。它们是肺癌患者化疗后很容易出现的一种恶性并发症,一旦出现严重的症状可能会造成生命危险。如果应用了零氪科技的预测模型,可以提前预知患者出现严重并发症的风险如何,然后在化疗前就给予适当处理,降低出现严重并发症的风险。3. 医学数据处理挑战主要有三大块,一是优化目标的定义,也就是说问题本身的定义如何;二是可用数据,你能否拿到足够多的可用数据;三是模型的可解释性,如何处理对模型结果推理过程的置疑。优化目标定义:之所以是一个问题,是因为临床上面很多问题的定义是模棱两可的,我们只能凭经验、凭一些医生的日常行为来粗略地去刻画这个问题,很难拿到一个数学上非常精确的问题定义。但是一旦问题定义不精确,最后对问题建模后的结果必然不对。所以优化目标的精确定义是非常重要的。可用数据:即可用数据、高质量的数据集的重要性。模型因果性、可解释性:这是与临床结合做研究的时候一个独有的问题。临床是和人的生命息息相关的,所以做的任何一件事情都要有理有据,都要有因果推论的关系。但是,我们做机器学习模型时,很容易陷入到直接对相关性进行建模的这样一个陷阱里。相关性建模涉及的两个因素未必有直接的因果关系,得出的这个模型,如何解释它最后结果的意义,是一个很难处理的事情。这一点就横亘在很多模型最后产品化、产业化的路上面,是一只拦路虎。如果不解决可解释性问题的话,就很难迈过这道门槛,把机器学习成果投入实际产业化。