四年前,在MIT一次学术交流会上,不少学者已经开始把医学图像分析的研究分为两大流派:数学建模派和深度学习派,并据此站队。
组织方也针对这一问题,让众多国际知名专家展开了一系列的辩论,探讨哪种方法才是医学图像分析的未来。
MICCAI创始主席、ISICDM大会主席之一JamesDuncan教授在接受雷锋网采访时回忆到,“那个时候,深度学习在医学图像领域的应用还不像现在这样火热。所以我当时的选择是站在数学建模派这一方,但随着深度学习的快速发展和不断优化,它逐渐改变了我最初的看法。我现在更加认定未来这两派之争的结果,将会介于数学建模和深度学习两者之间。所以,每隔一段时间我都会将不同的新老方法进行融合。”
两年后,图像计算与数字医学国际研讨会(ISICDM)首度在成都召开,该论坛创办的初衷,一方面是推动理工医交叉融合,另一方面,创造了一个绝佳的平台,让国内学者与世界级知名理工专家一同探讨数学建模与深度学习方法。
四年后的今天,连续举办三届的ISICDM已经发展为世界级的理工医交流会。
在近期结束的第三届ISICDM中,中国科学院院士徐宗本教授、美国工程院院士JohnGore教授,加拿大皇家科学院院士TerryPeters教授,英国皇家科学院院士郭毅可教授,四位院士莅临本次大会。
与此同时,MRI主编(美国工程院院士JohnGore教授)、MedicalImageanalysis主编(耶鲁大学JamesDuncan教授)、IEEETBME主编(芝加哥大学潘晓川教授)也在大会的多个环节中发言。
这是雷锋网连续三年作为大会的首席合作媒体,对大会进行独家报道。前两日的报道可阅读《ISICDM大会首日:81大专题报告,审视医学AI的过去、现在与未来》、《后深度学习时代,医疗AI将走向何方?》
芝加哥大学教授、IEEETBME主编潘晓川
大会最后一日,芝加哥大学教授、IEEETBME主编、IEEEFellow潘晓川作为开场嘉宾,发表重要演讲《OpportunitiesforBasicResearchonImageReconstructioninX-rayTomography》。
演讲中,他首先介绍了CT的成像原理,并为DxCT图像重建的基础研究机遇做出预判,潘晓川总结出了各个基础研究方向机会的大小:普通Dx-CT:几乎没有;设计新Dx-CT:几乎没有;低剂量Dx-CT:几乎为零;心脏Dx-CT:机遇很小;双能DX-CT:有一点;光谱DxCT:有。
随后,潘晓川谈到在x射线断层成像领域,有足够的机会进行图像重建研究:
1.新兴应用程序/市场需要新的系统/工作流
2.X光中小型供应商比Dx-CT供应商,更加愿意允许访问其系统的(原始)数据和关键知识
3.关键部件变得更加容易获得
4.可为研究或应用/市场开发自己的系统或子系统
5.可以对新算法进行调整,以改进现有算法,或启用新的特定于应用程序的系统/工作流。
他认为,DxCT图像重建的基础研究机会有限,而针对特定的、新兴应用或利基市场中,X线断层成像的需求将会越来越大。因此产业界有足够多的机会进行技术研发,从而生成出更多的产品、应用,甚至是创造全新的市场。
最后,潘晓川谈到了基础研究的价值与主张。他介绍到,研究者可通过基础研究发现可概括的知识和见解,并建立技能和信心,同时提高推理能力。在这过程中,需通过建立合理的算法/系统/工作流模型,初步测量一个可观的参数空间,消除参数空间中不需要的部分,如部分模型。并通过严谨的论据和研究条件陈述,做出完全真实和精确的学术主张,如所涉及的参数和优度指标,保持研究的相关性、重要性和严谨性,避免耸人听闻、夸大的说法。
英国皇家工程院院士郭毅可
第二位嘉宾为英国皇家工程院院士、英国帝国理工学院教授郭毅,他在大会报告《Data-efficientDeepLearninginMedicalImages》中表示,人们常常在谈大数据,但数据大不一定是好事。大了也可能存在“垃圾”多、不智能、抽象不够等问题。因此,研究者应该花更多精力去研究用小数据做事情。
这里就需要涉及到一个重要问题,即如何定义数据效率?
郭毅可谈到两点:一是使用较少的训练样本来实现相同的性能,二是使用相同数量的训练样本以获得更好的性能。他强调到,1和2这两个标准并不相同:只有“1”可以证明数据效率,“2”则展示了学习的稳定性。
而用好小数据的关键,其中非常重要的一点在于我们怎样才能更好地应用好知识,引入先验知识的学习模式是提升数据效率的关键。引入的知识可分为两类:外部知识和内部知识。
其中,外部知识的学习模式有:贝叶斯定理(统计先验)、零(少)样本学习(先验知识图谱)、数据同化、深度标注:将训练数据迁移到细粒度级别的标注,如:DeepPoincareMap(引入动态系统的细粒标记)这四类方法。
而内部知识的学习模式包含:序列学习(bagging、boosting模型集成方法)、迁移学习、Deepboosting三大类方法。
其中,以用于精准医学图像分割中的细粒标记(数据显微镜)的DeepPoincareMap为例。郭毅可提出,医学图像分割通常采用binarylabelmaps的形式,缺乏一些基本的先验信息(如放射科医师的绘制过程)。
因此,可通过为每个标签构造一个动态注释系统来生成/输出先验信息。这使得我们能够从单个训练样本中提取“深度”信息,从而提高数据效率。
纽约州立大学石溪分校教授梁正荣
随后,美国纽约州立大学石溪分校教授、IEEEFellow梁正荣。梁教授分享了《DeepTextureAnalysis:aPotentialSolutiontoWhyCNNMachineLearningGoeswithExpertsScores,NotthePathologicalReports》。
首先,梁正荣介绍了神经网络的背景,人工智能技术在计算机被人类应用不久后便开始萌芽,人工神经网络可看作是第一代人工智能,而人工神经网络也通常被用作手工图像特征分类器。但人工神经网络分类器经常被证明不如其他分类器,如SVM、RF等。多年后,卷积神经网络CNN孕育而出,它可以看作是第二代人工智能。CNN比人工神经网络强大得多,因为CNN既能提取图像特征,又能对特征进行分类。
随后,他介绍了“异质性(heterogeneity)”和“纹理(texture)”这两大概念。
1异质性是病变演化和生态学的足迹,是病变进展和干预反应的指标。
2.异质性通过病变体积的图像对比度分布反映出来。
3.图像纹理代表了对比度的分布,已被认为是一种有效的描述病变异质性的方法。
4.因此需要定量成像。
在此条件下,梁正荣得出三个结论,其分别为:
一、纹理与病变的异质性密切相关,也同样与病变病理相关。因此,从纹理图像/特征中学习是临床所需:
l从单个数据集中提取多尺度纹理
l从单个数据集中放大纹理或“BigBang”
l多尺度和纹理“BigBang”来自多模态数据量,如能谱CT和多光谱MRI(T1、T2、弥散等)。导致大量纹理图像/特性。
二、放射组学方法面临着处理大变量的挑战
Max{AUC[A,B,C,D,E,F,G,..]}
三、条件多模态数据集成策略缓解了这种挑战
AUCA[A
B丨A]=AUC[A+]≥AUC[A]
随后,梁正荣通过一个实际案例,引出自适应机器学习和数据集成这两大演讲重点,并介绍了纹理放大或BigBang模型的方法对比。
异质性-小数据集-体素具有明显的对比:
原始图像的一阶导数得到一阶梯度图像;
原始图像的二阶导数得到二阶曲率图像;
如果噪音可以控制,可能会得到更高的阶数。
从左往右:梁正荣、潘晓川、AaronFenster、TerryPeters、JohnGore。
大会上午的最后环节,则是专题圆桌论坛,其中由MICCAI创始主席、ISICDM大会主席之一JamesDuncan担任主持,参与讨论的嘉宾分别是纽约州立大学石溪分校教授梁正荣、芝加哥大学教授潘晓川、加拿大卫生科学院院士AaronFenster、加拿大皇家科学院院士TerryPeters和美国工程院院士JohnGore。
第三次人工智能浪潮到来后,以深度学习为代表的方法成为图像处理技术的主流。但是随着深度学习的鲁棒性不足、缺乏可解释性、对大量高质量训练数据和手工标注的依赖等不断出现的问题,研究者们对这项技术也提出了质疑。
未来,深度学习技术将会如何进一步发展?传统数学建模的方式是否会再次崛起?几位嘉宾围绕本次圆桌的主题分别提出了自己的见解。
艾伦脑科学研究所大脑大数据研究组组长彭汉川
在下午的第一场演讲中,美国艾伦脑科学研究所大脑大数据研究组组长彭汉川发表演讲《BrainBigImagingData-BigMachinesBigBrains》
彭汉川教授现任艾伦脑科学研究所大脑大数据研究组组长,AIMBEFellow。围绕大脑这个研究方向,他和团队开发和使用了许多机器学习、人工智能、数据挖掘和成像方法来处理复杂和大规模的大脑数据、基因表达数据和其他类型的数据。
彭汉川教授介绍了他们团队研发的用于脑科学大数据采集、处理和分析的技术手段,包括一系列对神经元进行跟踪和可视化的算法、软件和硬件系统,并且分享了利用这些技术手段进行实际研究取得的成果和体会。
他打趣到,研究大脑最重要的并不是算法,而是经费,艾伦脑科学研究所正好在这方面有着先天的优势。
随后的报告中,彭汉川介绍了大脑影像大数据研究中的一系列热点问题,重点讲述了如何针对单神经元分辨率的影像数据进行工业级的分析和应用,并对所使用的虚拟现实、大数据组织、人工智能算法等工作进行了详细阐述。其中他重点讲解了年发表在NatureMethods的Vaa3D-TeraFly方法,该方法具备三大功能,分别是:
l非常快速的teravoxel-scale图像三维可视化
l复杂三维结构的编辑与注解
l可对海量图像数据进行随机访问,进行自动分析
利物浦大学数学科学系教授陈柯
下午第二位演讲嘉宾为英国利物浦大学数学科学系陈柯教授,他的演讲题目是《VariationalModelsforImageRegistrationromshallowapproachestodeeplearningmethods》。
陈柯现任英国利物浦大学终身教授,皇家御批数学家,英国国家基金委利物浦数学与健康科学研究中心(英国5中心之一)主任,利物浦大学物理科学院主管国际化的副院长。
在大会报告中,陈柯教授主要展示了关于多模态图像配准的数学公式和变分模型。
在介绍单模图像配准问题时,他以肿瘤图像为例,说明图像配准的目的是对两幅相同或不同类型的图像进行对比,以用于肿瘤诊断和生长,随后他提出了基于Beltrami微分几何的新模型,并对比了约束模型。在阐述多模态图像配准问题时,他提出“要以两幅图的直方图进行比较,而不仅仅以灰度进行比较”,并提出了不同光照条件下的联合图像强度校正与配准的新模型。最后他总结到,现有的多模态模型仍有很大改进,医学图像方面也有很多值得深入思考的问题,带来了与数学相关的新理论和新算法的挑战。此外,他也介绍了多个改进多模态相似性的方法和无监督学习算法。
最后他从更宏观的角度给出了数学研究人员和企业从业者的建议。
数学开发人员应该应用好建模工具和方法,如
1.用越来越鲁棒的模型来建模逆问题
2.在学习框架中实现变分模型
对于业界从业者而言,模型越精确,精度就越高,对于速度要求来说,学习可能是最好的,需要进行更紧密的协作来定义新任务。
巴黎多芬纳大学教授LaurentD.Cohen
第三位演讲嘉宾是法国巴黎多芬纳大学教授LaurentD.Cohen,LaurentD.Cohen是欧洲宇航防务集团科学研究奖和TaylorFrancis奖获得者,IEEEFellow。本次报告,他发表的演讲是《ActiveContoursRevisitedThroughGeodesicMethods》。
近些年他主要探索图像分析和计算机视觉的变分方法和偏微分方程的不同问题。例如,基于边缘或基于区域活动轮廓的可形变模型以及对象分割和识别的机器学习方法。
在演讲中,LaurentD.Cohen教授分别讲解了最短路径算法、快速行进算法、FrontPropagation算法、各向异性最短路径和Tubularmodel,以及Finsler度量的四种方法:主动轮廓模型Alignmentterm、基于曲率惩罚模型、Region-Based、FrontPropagation的分割。
空军医院消化内科主任医师吴开春
随后,空军医院消化内科主任医师吴开春带来演讲《胃癌分子影像内镜进展》,吴开春是空军医院消化内科主任医师、教授,长期从事消化内科临床诊治和基础研究工作。
首先,吴开春讲到了分子影像国际研究的进展,其中突破肿瘤传统诊疗方法包括精准医学和分子影像。那么如何进行早期诊断、精准治疗和改善预后?吴开春谈到了分子成像探针这一方法,该方法可辅助早期分子水平诊断、肿瘤代谢的可视化、肿瘤边界精确定位、延长患者生存时间。
紧接着,吴开春陆续讲解了相关技术方法在卵巢癌精准手术、膀胱癌精准手术、胃癌特异性探针皮下肿瘤模型成像、内窥镜分子影像研究、早期特异性识别克罗恩病、早期食管癌诊断、早期腺瘤性结肠息肉诊断等问题中的应用案例。
并深入介绍了切伦科夫内镜分子靶向成像最新研究,切伦科夫效应即放射性核素在发生衰变时除了发出射线,还可产生近红外和可见光。具有多种核素可作为光源成像灵敏度高的优点,具备核素成像的高灵敏度和光学成像的高分辨率同时避免了传统光学染料的生物毒性。
切伦科夫成像的模块结构,总共可分为探头(大孔径物镜)、高透光纤传像束、耦接放大镜、传光光纤、EM-CCD相机和LED定标光源这几部分。
集成了切伦科夫成像模块的多模态内镜设备,整个逻辑结构的信号采集模块由常见的白光成像模块和正在重点研究的切伦科夫成像模块、显微成像模块组成,实现三种成像的融合,从而让这三种模块分别获得白光结构信息、功能分子信息、细胞显