欢迎访问中南医学期刊社系列期刊网站!

中国科技核心期刊

中国科技论文统计源期刊

CACJ中国应用型扩展期刊

湖北医学精品期刊

湖北省医学优秀期刊

《中国学术期刊影响因子年报》统计源期刊

WHO西太平洋地区医学索引(WPRIM)收录期刊

美国化学文摘社(CAS)数据库收录期刊

中国药学会系列期刊

百度学术索引期刊

首页 在线期刊 2025年 第34卷,第8期 详情

面向医学小样本数据的人工智能方法及应用研究进展

更新时间:2025年08月29日阅读:37次 下载:10次 下载 手机版

作者: 王龙昊 钱力 伍亚舟

作者单位: 陆军军医大学(第三军医大学)军事预防医学系军队卫生统计学教研室(重庆 400038)

关键词: 小样本数据 人工智能方法 医学应用

DOI: 10.12173/j.issn.1005-0698.202412135

基金项目: 国家自然科学基金面上项目(82173621、81872716);重庆市高等教育教学改革研究项目(242113)

引用格式: 王龙昊,钱 力,伍亚舟. 面向医学小样本数据的人工智能方法及应用研究进展[J]. 药物流行病学杂志, 2025, 34(8): 938-951. DOI: 10.12173/j.issn.1005-0698.202412135.

WANG Longhao, QIAN Li, WU Yazhou. Research progress on artificial intelligence methods and applications for small sample data in medicine[J]. Yaowu Liuxingbingxue Zazhi, 2025, 34(8): 938-951. DOI: 10.12173/j.issn.1005-0698.202412135.[Article in Chinese]

摘要| Abstract

人工智能方法在医疗领域的发展势头迅猛,但其模型训练性能很大程度上依赖充足的样本量支撑。由于受到隐私、安全、伦理及成本等诸多因素的制约,医学领域获取大量标记训练样本颇具难度。诸如罕见病病例数量稀少、药物分子挖掘所需的生物学数据匮乏、医学图像高质量标注稀缺等问题,均可能导致模型从观测数据中学习的能力显著下降,进而导致预测性能欠佳。在此背景下,构建面向小样本数据的高效学习人工智能模型,无论是在理论还是实践层面均具有深远意义。一方面,它能在新研究早期样本不足时助力挖掘潜在规律;另一方面,高质量模型可有效降低人工注释成本,缩短研究周期,为解决医学研究中样本难以足量收集的难题提供可能。在这些预期优势与实际需求的双重驱动下,小样本数据的人工智能研究逐渐成为备受瞩目的重要方向。基于此,本综述系统梳理并总结了当前医学小样本数据领域6种人工智能方法,即生成对抗网络、图神经网络、迁移学习、强化学习、度量学习和元学习的原理、优缺点、医学适应场景及面临的主要挑战,并对医学小样本数据人工智能方法的未来发展趋势进行了全面展望与深入思考。

全文| Full-text

随着人工智能(artificial intelligence,AI)技术的飞速发展,其在医疗领域的应用已成为科学研究的前沿热点。尤其在药理学研究[1]、医学诊断[2]和医学影像[3]等方面,AI技术展现出巨大的潜力与价值。然而,医学领域数据具有特殊性,受隐私保护[4]、伦理限制[5]、成本高昂等因素影响,导致高质量、大规模标记数据的获取面临重重挑战。特别是在罕见病病例[6]、药物分子挖掘[7]、医学图像标注等[3]等方面,  数据稀缺性问题尤为突出,限制了AI模型的训练效果,影响了模型的预测性能与泛化能力[8]。

在此背景下,在小样本数据中建立高效学习的AI模型具有重要的理论和实践意义。小样本数据通常指可用于训练或建模的样本数量显著不足,难以直接支撑模型的有效学习或得出可靠结论。其核心在于数据量与任务复杂度之间的不匹配,而非绝对数量的多少。寻找应对策略不仅能在研究早期样本数量不足时探索潜在规律,而且高质量的模型可降低人工注释成本、缩短研究时间跨度,为解决医学研究中样本无法足量收集的问题提供助力。在这些优势与实际需求的推动下,小样本数据的AI研究逐渐成为重要方向。近年来,生成式AI技术[9]在解决医学影像数据稀缺问题上取得了突破,小样本学习(few shot learning,FSL)[10]和零样本推理[11]研究也不断推进,通过融合多种方法,在小样本或零样本检测任务中取得了优于传统方法的表现。本综述系统梳理并总结了医学小样本数据的来源、关键AI方法及应用领域、面临的挑战,并对未来的研究方向进行了展望与思考,以期为面向医学小样本数据的AI研究提供理论基础和实践指导,推动相关领域的科学进步。

1 面向医学小样本数据的AI方法

基于大数据的AI方法在小样本、高维和噪声的环境下易出现过拟合[12],为应对这一挑战,新的AI方法不断涌现。小样本数据处理情境中当前较为常用的AI方法及其适用场景,包括生成对抗网络(generative adversarial network,GAN)、图神经网络(graph neural network,GNN)、迁移学习(transfer learning,TL)、强化学习(reinforcement learning,RL)、度量学习(metric learning)和元学习(Meta learning)。

1.1 GAN

GAN是一种生成式深度学习模型,于2014年由Goodfellow等提出后,近些年在不同领域有着越来越深入的应用[13]。GAN主要由生成器和判别器两个模块组成,两部分一般使用神经网络模型搭建[14],其基本架构见图1。

  • 图1 GAN的基本架构
    Figure 1.Basic architecture of the GAN

生成器以随机噪声为输入,通过模拟真实数据分布来生成合成样本;判别器则对输入样本进行真伪判别,并输出其属于真实数据的概率。生成器会不断优化生成策略以试图欺骗判别器,而判别器也会持续提升鉴别能力以区分真伪[13]。在这一对抗过程中,生成样本逐渐逼近真实数据分布,直至两者达到动态平衡(即纳什均衡),此时生成器便能输出与真实数据高度相似的样本。

GAN的优势在于无需显式定义数据分布,尤其适用于医学领域中复杂高维数据的隐式建模(如病变特征提取)。在小样本场景下,GAN可通过合成数据缓解训练集稀缺的问题,但其生成质量受限于样本规模,容易因训练不充分而出现模式坍塌(即生成样本单一化)或判别器过拟合的情况[14]。为此,衍生模型通常会借助条件约束(如通过病灶标签引导)、元学习预训练或TL策略,优化小样本情况下的生成鲁棒性,从而为医学影像增强、跨模态合成等任务提供适配解决方案[15]。同时GAN经过优化衍生出了更先进的模型,如深度卷积生成对抗网络(deep convolution GAN,DCGAN)[16]、条件生成对抗网络(conditional GAN,CGAN)[17]、辅助分类器生成对抗网络(auxiliary classifier GAN,ACGAN)[18]和半监督生成对抗网络(semi-supervised GAN,SSGAN)[19] 等。

Kalemati等[20]使用DCGAN预测药物靶点结合亲和力,经过编码和嵌入、特征提取、合并药物和蛋白质潜在载体及预测药物靶点结合亲和力4个步骤,模型展现出高效性和稳健性,且可推广至其他药物发现领域;Jayalakshmy等[21]基于CGAN开展呼吸信号的数据增强工作,将潜在空间点和类标签作为生成器的输入,有效提高了预训练深度学习模型的准确率,性能优于传统方法;Waheed等[22]基于ACGAN模型生成胸部X射线图像,通过让判别器预测特定图像的类标签,利用合成图像提升了卷积神经网络(convolutional neural network,CNN)的准确率,为新型冠状病毒感染的检测提供助力;Pang等[23]构建了基于SSGAN的放射组学模型,用于增强乳腺超声图像,并通过Inception-V3 CNN模型进行乳腺癌分类,该模型表现出一定的稳健性。基于GAN的研究在小样本生物医学数据情境下,在药物研发、信号处理、图像生成及疾病诊断等方面展现出独特优势,为解决小样本数据难题提供了创新思路,有望推动相关领域向更精准高效的方向发展。

1.2 GNN

GNN是由Marco提出的一种用于处理非结构化数据的模型,将神经网络方法应用于图数据领域[24]。其核心思想是通过节点间的信息传递与聚合,挖掘图数据中的拓扑关系与语义特征。在GNN中,每个节点通过迭代聚合邻居节点的特征信息,并结合自身特征来更新自身表示。每个节点在每一层网络中接收并融合邻居传递的信息,逐步生成包含全局结构上下文的高阶特征表示,最终为节点分类、图分类或连接预测等任务提供支持[25]。

GNN的优势在于显式建模关系依赖,天然适配医学中的非欧几里得数据(如分子图、脑网络、病例关联图谱)。对于小样本场景,GNN可利用图结构的先验知识增强数据间的关系推理,通过局部信息共享以缓解样本不足的问题。然而,其性能高度依赖图结构的完整性与准确性,若数据稀疏或关系噪声较大,可能削弱模型的泛化能力。为此,改进方法通常会结合注意力机制或引入元学习策略,从少量样本中快速适配异构图模式,从而为疾病预测、药物发现等任务提供可解释的结构化推理支持。同时,GNN还衍生出了许多新模型,如图卷积网络(graph convolution networks,GCN)[26]、图样本聚合评估器(graph sample and aggregate networks,GraphSAGE)[27]、图注意力网络(graph attention networks,GAT)[28]和图自编码器(graph autoencoder,GAE)[29]。

Hou等[30]使用2个GCN分析piRNA-疾病相互作用网络与2个相似网络的关联模式,提取特征并预测piRNA与疾病的关联评分,进而揭示RNA水平的潜在发病机制;Liu等[31]对单细胞测序数据应用GCN进行归纳表示学习,将基因表达数据与拓扑结构合并降维,以预测基因间的相互作用。该模型采用GraphSAGE层作为编码器来克服网络稀疏性,在小样本数据中表现良好;Gao等[32]提出一种相互监督的小样本分割网络,通过融合卷积层特征图,将支持图像和查询图像合并为二分图,使用GAT避免空间信息丢失,最终通过将查询图像的GAT作先验信息,有效增强了分割性能;Huang等[33]提出一种基于变分自编码器(variational autoencoder,VAE)和图正则化稀疏深度自编码器(graph regularized sparse deep autoencoder,GSDAE)的数据增强方法,将生成程序嵌入到GSDAE中,以保证样本包含原始样本最显著的特征,从而提高了精神分裂症生物标志物的筛选精度。以GNN及相关技术为核心的研究,针对小样本生物医学数据,利用图结构中的关系和拓扑信息增强数据的表示能力,在疾病机制探索、基因关系分析以及数据增强与图像分割等任务中发挥了重要作用,为小样本研究提供了关键技术支撑和新的研究方向。

1.3 TL

TL是指在目标任务缺乏足够高质量训练数据时,尝试将先前任务中积累的知识迁移到目标任务中的一种方法[34]。其核心思想是将源领域中学习到的特征、模型或规律迁移至目标领域。在TL中,模型无需从零开始训练,而是基于大型公开数据集训练的深度网络,通过微调、特征提取或领域适配等策略,将通用知识转化为适用于目标任务的针对性表达,进而显著降低对目标领域数据量的依赖[35]。

TL尤其适用于医学小样本场景,通过共享跨领域共性,减少重复学习成本,同时缓解因数据稀缺而导致的过拟合风险。然而,迁移效能受领域相关性的影响显著——若源领域与目标领域差异过大,可能会引发负迁移。为此,改进方法常会结合领域对抗训练或元TL,动态筛选可迁移特征或构建领域不变表示,为跨设备、跨机构的医学数据建模提供灵活的知识复用框架。

Lu等[36]提出一种改进的TL方法,用于小样本磁共振成像的白质束分割,该方法从预训练任务特定层的权重中得出目标模型最后一个任务层的更优初始化数值,并结合数据增强策略,有效提升了白质束的分割性能;Ng等[37]构建预训练的Siamese CNN,通过新患者心电图记录进行微调,将其应用于个性化心房颤动的检测;Mammone等[38]为解码脑电图信号以分析运动意图,将脑电图信号投影到空频域中,并使用深度神经网络和TL识别新任务,提高了应用脑电图捕获复杂运动信息的有效性;Sharifi-Noghabi 等[39]将对抗性训练与TL相结合,用于处理临床前与临床数据间的差异,其效果优于现有的药物基因组学和TL基线,克服了药物反应结果相关的临床数据有限的挑战。这些研究围绕TL及其拓展应用展开,在小样本的医学影像分析、疾病诊断和临床数据处理等方面均展现出良好效果。TL将从大规模数据集学到的通用知识(如特征表示、模型参数、模式规律等)迁移到小样本任务中,提升了模型在小样本条件下的性能和适应性,为解决实际临床问题提供了有力手段。

1.4 RL

RL是除监督学习和无监督学习外的第3种机器学习方法,是一种通过交互的目标导向学习方法,旨在找到最优策略[40]。RL的建模思想基于马尔科夫决策过程,通过智能体与环境的交互从而获得反馈信息迭代优化[41]。所有智能体根据观测值同时做出反应,其产生的结果会推动环境状态更新,并决定智能体后续获得的奖励反馈[42],相关决策过程见图2。

  • 图2 RL马尔科夫决策过程
    Figure 2.Markov decision process in RL
    注:a为智能体反应,s为环境状态,r为奖励反馈。

智能体之间的关系(如竞争关系、半竞争半合作关系、合作关系)会形成了不同的求解方法。RL经过均衡求解与多次迭代,能得到学习时较易收敛的状态[43]。RL发展过程中诞生了许多经典算法,包括Q-learning[44]、深度Q网络(deep Q network,DQN)[45]、深度确定性策略梯度算法(deep deterministic policy gradient,DDPG)[46]和近端策略优化(proximal policy optimization,PPO)[47]等。

Dou等[48]将药物抑制效能预测转化为二元分类任务,通过一个适用于RL的更新函数,采用粒子群优化支持向量机,并结合软投票集成策略,有效筛选出实验化学品;Cui等[49]利用基于Q-learning算法的RFLMDA模型,在8种癌症中识别关键的微小RNA;Wang等[50]提出改进的PPO算法,增加了模型的可解释性,通过多维高斯过程生成假样本,减少了对真实样本的需求;Xu等[51]提出一种深度生成对抗强化学习(deep generative adversarial reinforcement learning,DGARL)方法,构建了一个集成深度RL和GAN的管道,全面优化了半监督医学图像的检测和分割任务。基于RL的研究在小样本的药物筛选、癌症研究以及医学图像任务中取得了显著进展,通过创新算法和策略组合,有效应对了小样本数据带来的挑战,为小样本医学问题的解决提供了多样化的途径和方法。

1.5 度量学习

度量学习是FSL方法中的重要方法。其主要目的是学习各样本间的距离,并实现同类别样本的距离拉近,度量学习与深度学习相结合,实现深度度量学习[52]。深度度量学习(deep metric learning)通过训练深度神经网络提取特征,即设计合适的架构和损失函数,使用辅助数据集创建相似性度量,并将其推广应用到任务单元中[53],度量学习的FSL方法框架见图3。

  • 图3 度量学习的FSL方法基本框架
    Figure 3.Basic framework of the FSL methods in metric learning

度量学习为医学任务提供了鲁棒的相似性评估基准。在FSL中,其通过复用预训练度量空间或引入注意力机制发挥作用。然而,在小样本情况下,度量学习易因噪声样本或度量偏差导致空间扭曲。对此,改进方向常结合元学习或生成对抗训练,从而为病理图像分类、跨患者相似性匹配等任务提供高效的特征对齐。几种具有代表性的方法包括:孪生网络[54]、三元组网络、原型网络、联系网络和深度子空间网络等。

Luo等[55]使用GCN与强化对称度量学习以预测潜在的药物-疾病关联,构建了药物-疾病异构网络,补充关联信息,并设计了具有自适应边际的度量学习方法以挖掘药物与疾病的潜在关系;Luo等[56]提出一种基于协同度量学习的新型药物重定位计算方法,基于一致性的药物和疾病信息,为药物重定位提供了计算支持;Zhu等 [52]从图谱中学习距离度量模型,使结构相似的图像块彼此靠近,并将应用于标签融合中计算图像块相似度,有效提高了海马体图像分割的精度;Zhang等[57]提出基于中心的深度对比度量学习损失函数的异常检测方法,用于多小脑回畸形的MRI图像诊断,在小样本且不平衡的数据集中表现良好,可作为放射科医生的辅助工具。度量学习通过学习有效的特征表示与相似性度量,在小样本场景下的药物-疾病关系研究、药物重定位探索、图像分割及异常检测等方面发挥了重要作用,为小样本医学数据的挖掘与分析提供了精准有效的方法,助力相关领域的深入研究和临床应用。

1.6 元学习

元学习同样是FSL的一种重要方法,其基于任务学习而非样本数据学习,旨在使模型在训练后“学会学习”,通过元训练和元测试2个步骤实现[58]。在元训练阶段,由辅助数据集构建M个有监督的独立任务T~p(T),p(T),定义了任务分布。通常,训练集被定义为支持集,测试集被定义为查询集,其样本分别称为支持样本和查询样本[59]。元训练选取M个任务,初始化参数后,使用双层优化算法(bilevel optimization,BLO)学习最优参数[60];在元测试阶段,从任务分布中选取Q个任务,基于元训练中训练出的参数,在每个任务的训练集上进行训练,并在测试集上评估元学习的整体性能,元学习的基本架构见图4。

  • 图4 元学习基本框架
    Figure 4.Basic framework of Meta-learning

元学习的优势在于能突破孤立任务的数据依赖,通过跨任务知识共享,显著降低小样本场景下的过拟合风险。在医学领域,其适用于动态变化的任务需求,但面临的挑战是元训练需依赖多样化的任务分布——若医学元任务稀缺或差异性不足,可能会限制元知识的泛化能力。对此,改进方法通常结合自监督学习或层次化元优化,为少样本医学图像分割、个性化治疗策略推荐等任务提供自适应学习框架。

Nguyen等[61]采用元学习策略与U-net架构的编码器-解码器深度神经网络,在电子显微镜图像中分割轴突和周围的髓鞘;Shi等[62]提出一种基于元学习的自动分层分割方法,用于评估血管内光学相干断层扫描图像中的血管结构,该方法利用双层梯度策略训练元学习器,以捕获不同解剖层之间的共享元知识,并设计了爪型网络和对比一致性损失,从而更好地学习元知识;Chen等[63]提出一种基于集成元学习的残基-残基相互作用预测模型,该模型包括四个基础分类器和一个元分类器,通过纳入多种特征类型,能更精准地区分非相互作用和相互作用的残基;Zhang等[64]将模型不可知元学习(model-agnostic meta-learning,MAML)应用于泛癌数据,以获取特定癌症神经网络的最佳初始数据,通过将元学习框架的性能与其他机器学习方法进行比较验证,确定了8个潜在的放射敏感性相关基因。基于元学习的研究在小样本的生物医学图像分割、残基相互作用预测以及癌症研究等领域展现出强大优势,其通过元学习策略,从多个任务中学习可迁移的知识或学习策略,使模型在面对新任务时能够快速适应,提升了模型在小样本数据上的泛化能力和学习效率,为小样本医学研究开辟了新的道路,有望推动相关技术在临床实践中的应用和发展。

1.7 模型评价指标

在模型评价过程中,往往需要根据不同的问题采用不同的指标进行评估,以此检验模型的鲁棒性和泛化性。通过评价指标的反馈,可进一步设计出更优的模型结构,从而实现对不同数据输入的准确拟合。对于分类问题,主要评价指标包括精确率、召回率、准确率、F1分数、受试者工作特征(receiver operating characteristic,ROC)曲线及其曲线下面积(area under the curve,AUC)和精确率-召回率(precision-recall,PR)曲线。其中,AUC值越接近1,表示模型性能越优。对于回归问题,评价指标有平均绝对误差(mean absolute error,MAE)和均方误差(mean square error,MSE),其值越低说明模型误差越小;此外,还有马修斯相关系数(Matthews correlation coefficient,MCC)、皮尔逊相关系数(Pearson's correlation coefficient,PCC)和Dice系数等其他评价指标,它们分别用于衡量模型预测的全面性、变量间的线性相关性和样本集合的相似度。这些指标共同为模型优化提供了反馈,助力实现对不同数据输入的准确拟合。

1.8 医学小样本数据AI方法的比较

上述6种模型方法各有优劣,且适用于不同的应用场景,总结汇总见表1。

  • 表格1 小样本数据AI方法的优缺点对比
    Table 1.Comparison of the advantages and disadvantages of AI methods for small sample data

2 小样本数据AI方法的医学应用

由于小样本数据集来源广泛,先进的AI方法已被应用于医学研究的多个方面,主要集中在药理学研究、癌症分类及预后、医学影像等领域。随着小样本AI方法的不断创新,相关领域也不断展现出新的研究活力。

2.1 药理学研究

药理学研究中,由于时间和成本的限制,有效数据往往均为小样本数据,难以满足AI模型的训练要求。同时,许多数据集存在噪声大[65]和阴性数据干扰[66]的问题,对模型的准确性和预测能力增大了难度。

Zhang等[67]提出了一种创新的小样本药物协同预测方法,该方法基于深度贝叶斯变分推理模型,通过先验引导超网络推断细胞系任务嵌入的先验分布,并抽取任务嵌入向量作为权重生成网络的输入,以最大化边际分布的对数似然下界;Liu等[68]将分子接头引入GAN生成器,提出了一种分子生成结构域适应的新范式,以期在微调过程中利用预训练阶段的先验知识,同时保持生成分子的质量和多样性;Feng等[69]对可卡因依赖靶点进行网络分析,构建了自编码器(autoencoder,AE)辅助的多任务深度神经网络(multitask deep neural network,MT-DNN)模型,利用AE生成的分子特征,通过梯度增强决策树(gradient boosting decision tree,GBDT)构建鲁棒预测模型,同时利用MT-DNN增强小数据集模型的预测性能,该方法可用于预测药物的利用潜力和不良反应,为可卡因成瘾的治疗提供线索;Shen等[70]开发了一种自监督GNN模型,利用图同构网络变量自编码器(graph isomorphism network variational auto-encoder,GINVAE)筛选Janus激酶1/2/3抑制剂,该模型通过自生成标签增强了对较少标记数据的鲁棒性。相关研究总结见表2。

  • 表格2 小样本药理学的AI研究
    Table 2.Research on AI in small sample pharmacology
    注:AUPRC. PR曲线下面积;QED. 药物相似性定量评估(quantitative estimate of drug-likeness);Diversity. 生成分子多样性指标;Uniqueness. 生成分子唯一性指标;R-GBDT. GBDT模型Pearson相关系数;R-MT-DNN. MT-DNN模型Pearson-相关系数;AP. 平均精确率(average precision)。

2.2 癌症分类及预后

由于经济、伦理等方面的原因,癌症相关的生物和遗传数据较难获取,同时有效标记的数据也相对较少。癌症基因组图谱(the cancer genome atlas program,TCGA)[71]是癌症研究的重要数据来源,但其同样存在数量少、样本分布不平衡等问题。

Liu等[72]提出了一种结合Wasserstein GAN(WGAN)与深度神经网络(deep neural network, DNN)的方法,并应用于小标记量的肝细胞癌分期识别。该方法通过GAN训练生成样本数据,再用合成样本训练DNN分类器,实现了高准确率的识别;Hsu等[73]提出了基于Wasserstein GAN的深度对抗数据增强(deep adversarial data augmentation,DADA)方法,在无预训练网络的情况下即可用于癌症患者预后分层,尤其在乳腺癌患者疾病特异性生存(disease-specific survival,DSS)预测中表现优异;Wei等[74]开发了基于癌症基因的Gene-GAN模型,通过重建损失函数提高生成样本的可靠性和训练稳定性,利用标签平滑减弱样本噪声,实验证明模型在数据增强和癌症分类方面具有可行性;Protonotarios等 [75]将FSL集成到U-Net架构中,用于在正电子发射计算机断层显像上的肺癌病灶分割,支持动态模型权重微调和在线监督学习方案,能根据用户反馈调整模型权重,以提高检测和分类精度。基于小样本数据的癌症分类及预后相关研究总结见表3。

  • 表格3 小样本癌症分类及预后的AI研究
    Table 3.Research on AI for small sample cancer classification and prognosis
    注:Acc. 准确率(accuracy);G-mean. 召回率的几何平均值;CI. 一致性指标(concordance index)。

2.3 医学影像

医学影像领域面临的最大挑战是如何应对较小的数据集和有限的注释样本。对于一些特定的病变特征(如早期病变或微小病灶),由于其出现频率较低且标注难度较大,难以收集到足够的样本进行分析[76]。同时,较高的人工标注成本也进一步缩减了有标注样本的数量。

Frid-Adar等[77]使用DCGAN和辅助分类GAN合成病变图像,有效提升了CNN对肝脏病变图像的分类效果;Bai等[78]利用Segment Anything Model 2(SAM2)的记忆注意力模块及处理掩码提示的能力,在无需微调的情况下实现了小样本医学图像的分割;Lin等[79]提出基于交叉掩蔽注意力Transformer的小样本医学图像分割的新框架CAT-Net,包括掩码融合特征提取(mask incorporated feature extraction,MIFE)子网(用于提取初始查询和支持特征以及查询掩码)和交叉掩蔽注意力转换器(cross masked attention Transformer,CMAT)模块(用于查询和支持特征相互增强),迭代应用CMAT模块提升小样本医学图像分割性能;Ding等[80]引入新的循环相似注意力(cycle-resemblance attention,CRA)模块,充分利用像素级关系,提高了MRI和CT图像的分割效果。基于小样本数据的医学影像相关研究总结见表4。

  • 表格4 小样本医学影像的AI研究
    Table 4.Research on AI for small sample medical images
    注:Sen. 灵敏度;Spe. 特异性;DSC. Dice系数,用于比较2个样本集合相似度的度量方法。

3 小样本数据AI方法的挑战

传统AI模型在小样本数据中表现会大幅降低,这就需要提出新方法以应对这一挑战,不断提升模型在小样本数据中的稳定性和泛化能力。随着研究的不断深入,该领域将取得良好的发展。

3.1 小样本数据定义的模糊性

在AI领域,处理小样本数据的常规方法中,通常将每个类别仅含5~50个样本的情况视为是小样本数据[81]。在统计学方面,使用FSL方法时,还需要考虑样本量与特征维度的关系,假设数据的特征维度是D,当样本量<logD时,即认为是小样本数据。但在实际应用中,具体何种情况应被归为小样本数据场景,往往需要专门设计FSL算法,这一问题界限模糊,缺乏公认且合理的评判标准。如在处理罕见病的医疗影像时,将其归为小样本问题是理所当然的,但即使针对某类常见恶性肿瘤的图像识别研究时,也可能存在小样本问题,尤其当使用深度学习模型时,其需要更新的参数量会达到数十万级,此时若样本提供的信息量较少(如图片像素较低等),即使有几百例的样本,也无法实现模型的迭代更新,这种情况同样可被视为样本量不足[82]。因此,小样本问题应结合实际研究方法,给出更具一般性的定义。

3.2 小样本多源数据的联合分析方法稀缺

在各式各样的FSL方法中,绝大多数用于解决医学图像问题,即采用FSL范式的AI模型[83-84];也有一部分方法涉及文本、表格型数据的处理,但针对小样本多源数据进行联合分析的模型探索相对较少。然而,在实际医学领域研究中,若研究对象的样本量较少,通常会优先考虑拓展该样本可利用信息的来源,即横向增加样本的特征数量。当对同一样本从多个角度和层次进行分析时,本质上能够利用到更丰富的数据信息,从而获得更深入的规律理解和更稳健的决策判断。其实,融合多源数据的分析方法在大模型领域发展较为迅速,其中最常见的是视觉语言模型(visual language models,VLMs),这类模型结合了视觉信息(如图像或视频)和语言信息(如文本描述或对话),典型VLMs包括ViLT、CLIP、VisualBERT等模型[85]。因此,在小样本领域尤其需要探索出联合多源数据的多样化分析思路,进而增强FSL模型的有效性和可靠性。

3.3 辅助小样本数据分析的先验知识利用不足

当前AI模型的成功基本上都依赖于数据驱动。然而,在数据不足的情况下,必须最大程度地利用先验知识来辅助问题分析。先验知识指的是在样本收集前已存在的且与所解决问题相关的信息,其可以是具有相似概率分布的大数据集、预先设定的网络模型假设、或是已知的疾病影响因素等。借助这些信息,AI模型能够在小样本数据集上更好地进行学习、推理和判断,从而尽可能保证模型对样本情况的理解符合客观规律[86-88]。但是对于FSL模型而言,如何评判哪些“知识”是真正管用且好用的,该从何种途径获取这类先验知识,又该如何将先验知识融入AI模型的学习过程,是亟待解决的问题。目前,在小样本数据分析中,利用先验知识辅助模型构建的思路尚未形成完整成熟的体系。因此,有必要充分探索先验知识在FSL模型中的辅助效果和实际意义,而通过知识弥补数据不足,确实是一个值得努力的方向[89]。

3.4 小样本数据所得结论的实践应用价值待加强验证

传统计算机学与统计学理论认为,大量训练样本有助于模型学习数据的内在规律,且基于大数据训练的模型往往能更好地泛化到未见过的数据中。因此,通过大样本数据归纳推理出的模型结论,更容易获得广泛的接受与认可。然而,在FSL场景中,数据存在类别不均衡、类别内变异度大、可利用信息量不足及选择偏倚显著等固有缺陷,导致模型对噪声敏感性高、学习误差大、预测性能不稳定及泛化能力弱[90],这一方面使得模型难以达到更优的效果;另一方面,即使模型追踪表现良好,由于原始数据对质量要求较高、信息处理步骤繁杂、模型验证不充分等因素,其结论的实际应用价值也存疑。对于医学和生物学领域研究而言,评价某一类AI模型的最重要标准在于其成果的可转化性。因此,为推动FSL模型的进一步发展,需要深入思考这类方法的实际应用建模,考虑模拟现实应用场景下的模型价值评估是一项值得尝试的课题[91]。

3.5 FSL模型的可解释性较弱

近年来,以深度学习模型为代表的新兴AI方法高速发展,其在预测精度、计算效率和识别稳定性上实现大幅提升,但同时也存在“黑盒模型”的可解释性不足问题[92]。FSL模型由于数据量有限,往往需要依赖更复杂的模型结构和高级技术,这使得其可解释性面临更大挑战,尤其难以明确特征的重要性排序、特征与结局的对应关系、特征学习过程中模型架构的变化等关键信息。因此,有效提高FSL模型的可解释性,将有助于增强模型的实用性和可信度[93-95]。

3.6 小样本公共数据集的构建困难

在图像与文本分类任务中,miniImageNet、omniglot与FewRel等现有的FSL模型被广泛使用的公共数据集。但在医学领域,不同研究所需的目标数据集差异较大,因此需要构建面向医学研究的大型多任务专用小样本集,这一过程会涉及多领域知识体系的交叉,如何实现多方面的通力协作,既是重点也是难题。

4 小样本数据AI方法的展望

通过对当前FSL研究进展的梳理,可以展望未来FSL的发展方向。

4.1 多源异构多模态数据的整合分析

为弥补小样本量导致的信息不足问题,增加同一样本的数据来源与类型至关重要。在构建模型时,可充分探索结构化数据(如临床检查指标、组学测序数据、人群基线资料等)和非结构化数据(如医学影像资料、临床音频数据、电子病历等)的整合分析。同时,可具体采用数据级(前端)融合、特征级(中端)融合和决策级(后端)融合等多种建模思路,最终实现多源异构多模态数据在FSL模型中的合理整合与有效利用[96]。

4.2 结合不同功能的FSL算法

现有的FSL模型在实际应用中往往仅采用单一策略,例如数据增强或TL,若尝试将两者进行结合,可同时从数据和模型两个层面进行改进,进而取得更优的学习效果。未来在GAN、度量学习、元学习、长短时记忆网络、多任务学习等多种功能的FSL策略中,可尝试个性化、多样化的组合模式,从而整体提高FSL模型预测性能的下限[23, 97-98]。

4.3 联合不同领域的模型学习方法

近年来,以Transformer、RL、在线学习等为代表的新型AI算法呈爆发式涌现,将这些先进的模型框架应用到FSL领域具有重要价值。如通过联合更有效的Transformer,利用其多重注意力机制,可提升FSL模型的表示能力;通过RL方法,能使模型在小样本环境中完成试错学习,进而增强模型的适应能力和泛化能力;开发在线学习方法,则可使模型实现实时更新与优化,以适应不断变化的小样本数据场景。这些尝试本质上是在丰富FSL模型的认知领域、拓展其能力边际,从而整体提高FSL模型预测性能的上限[51, 99-100]。

4.4 先验知识的充分利用

充分利用先验知识是FSL的核心思想之一,可以从以下两个方面进行探索。在数据层面,真实世界中存在的海量无标注数据蕴含着丰富信息,利用这些无标注数据可完成模型得弱监督训练,或者融合专家知识,即便这些知识来源于不同领域,也能为FSL提供助力。在模型层面,通过探究贝叶斯网络、知识图谱、增量学习等方法思路,能提高先验知识的利用程度,进而逐步实现FSL模型的知识积累[101-102]。

4.5 完善可解释性方法

持续开发更适配FSL模型的可解释性方法,如局部可解释模型无关解释(local interpretable model-agnostic explanations,LIME)、SHAP(shapley additive explanations)值和置换特征重要性等。这些方法尤其需要侧重于特征解释,提高模型的透明度,进而明确模型做出特定决策的过程。相较于事后可解释方法,未来研究可重点考察具有内在可解释的FSL模型。

4.6 优化FSL效率

FSL模型在计算效率和运行速度方面并无明显优势,主要是由于其算法复杂度较高、需更新的参数较多。因此,可考虑将FSL模型的主干网络或重要模块迭代优化为轻量化设计,从而在保持原有预测精度的同时,提高模型的学习效率[103]。

4.7 GNN的深入探究

GNN凭借表达能力强、训练高效、性能优异等特点,已广泛应用于社交网络分析、化学分子结构预测、推荐系统等多个领域,但是针对基于GNN的FSL的探索与应用仍十分有限。未来应在图网络结构设计(如异质图或动态图)、消息传递机制的优化(如节点或边的更新函数)以及理论基础深化(FSL或GNN原理)等方面加大研究力度[32, 104-105]。

5 结语

小样本数据AI方法的发展聚焦于多维度融合与系统性创新。在数据层面,需整合多源异构模态信息(包括结构化/非结构化数据),通过多级融合策略与先验知识嵌入,缓解样本稀缺性;在算法层面,需协同运用数据增强、TL、元学习及RL等方法,结合Transformer注意力机制与GNN动态图结构,增强模型的表征与泛化能力。在效率优化方面,需平衡轻量化设计与计算精度,可解释性则依赖LIME、SHAP等局部解释工具与内嵌透明框架,以确保在高敏感场景中的可靠性。未来研究需贯通数据、算法与认知边界,实现从理论到应用的全链条突破。总体而言,未来研究需兼顾数据、算法与认知边界的拓展,通过系统性创新推动FSL从理论到实践的全链条突破。

利益冲突声明:作者声明本研究不存在任何经济或非经济利益冲突。

参考文献| References

1.Mayer B, Kringel D, Lötsch J. Artificial intelligence and machine learning in clinical pharmacological research[J]. Expert Rev Clin Pharmacol, 2024, 17(1): 79-91. DOI: 10.1080/17512433.2023.2294005.

2.Al-Antari MA. Advancements in artificial intelligence for medical computer-aided diagnosis[J]. Diagnostics, 2024, 14(12): 1265. DOI: 10.3390/diagnostics14121265.

3.Li X, Zhao L, Zhang L, et al. Artificial general intelligence for medical imaging analysis[J]. IEEE Rev Biomed Eng, 2025, 18: 113-129. DOI: 10.1109/RBME.2024.3493775.

4.Price WN, Cohen IG. Privacy in the age of medical big data[J]. Nat Med, 2019, 25(1): 37-43. DOI: 10.1038/s41591-018-0272-7.

5.Meszaros J, Minari J, Huys I. The future regulation of artificial intelligence systems in healthcare services and medical research in the European Union[J]. Front Genet, 2022, 13: 927721. DOI: 10.3389/fgene.2022.927721.

6.Wojtara M, Rana E, Rahman T, et al. Artificial intelligence in rare disease diagnosis and treatment[J]. Clin Transl Sci, 2023, 16(11): 2106-2111. DOI: 10.1111/cts.13619.

7.Gupta R, Srivastava D, Sahu M, et al. Artificial intelligence to deep learning: machine intelligence approach for drug discovery[J]. Mol Divers, 2021, 25(3): 1315-1360. DOI: 10.1007/s11030-021-10217-3.

8.Gangwal A, Ansari A, Ahmad I, et al. Current strategies to address data scarcity in artificial intelligence-based drug discovery: a comprehensive review[J]. Comput Biol Med, 2024, 179: 108734. DOI: 10.1016/j.compbiomed.2024.108734.

9.Rodler S, Ganjavi C, De Backer P, et al. Generative artificial intelligence in surgery[J]. Surgery, 2024, 175(6): 1496-1502. DOI: 10.1016/j.surg.2024.02.019.

10.Vella D, Ebejer JP. Few-shot learning for low-data drug discovery[J]. J Chem Inf Model, 2023, 63(1): 27-42. DOI: 10.1021/acs.jcim.2c00779.

11.Ye Z, Yang G, Jin X, et al. Rebalanced zero-shot learning[J]. IEEE Trans Image Process, 2023, 32: 4185-4198. DOI: 10.1109/TIP.2023.3295738.

12.潘雪玲, 李国和, 郑艺峰. 面向深度网络的小样本学习综述[J]. 计算机应用研究, 2023, 40(10): 2881-2888, 2895. [Pan XL, Li GH, Zheng YF, et al. Survey on few-shot learning for deep network[J]. Application Research of Computers, 2023, 40(10): 2881-2888, 2895.] DOI: 10.19734/j.issn.1001-3695. 2023.02.0074.

13.Creswell A, White T, Dumoulin V, et al. Generative adversarial networks: an overview[J]. IEEE Signal Process Mag, 2018, 35(1): 53-65. DOI: 10.1109/MSP.2017.2765202.

de la Torre J. Redes generativas adversarias (GAN) fundamentos teóricos y aplicaciones[EB/OL]. (2023-02-18) [2024-10-17].  https://doi.org/10.48550/arXiv.2302.09346.

15.Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks[J]. Commun ACM, 2020, 63(11): 139-144. DOI: 10.1145/3422622.

Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL]. (2016-01-07) [2024-10-17]. https://doi.org/10.48550/arXiv.1511.06434.

17.Mirza M, Osindero S. Conditional generative adversarial nets[EB/OL]. (2014-11-06) [2024-10-17]. https://doi.org/10.48550/arXiv.1411.1784.

Odena A, Olah C, Shlens J. Conditional image synthesis with auxiliary classifier GANs[EB/OL]. (2017-07-20) [2024-10-17]. https://doi.org/10.48550/arXiv.1610.09585.

19.Salimans T, Goodfellow I, Zaremba W, et al. Improved techniques for training GANs[EB/OL]. (2016-06-10) [2024-10-17]. https://doi.org/10.48550/arXiv.1606.03498.

20.Kalemati M, Zamani Emani M, Koohi S. DCGAN-DTA: predicting drug-target binding affinity with deep convolutional generative adversarial networks[J]. BMC Genomics, 2024, 25(1): 411. DOI: 10.1186/s12864-024-10326-x.

21.Jayalakshmy S, Sudha GF. Conditional GAN based augmentation for predictive modeling of respiratory signals[J]. Comput Methods Programs Biomed, 2021, 138: 104930. DOI: 10.1016/j.compbiomed.2021.104930.

22.Waheed A, Goyal M, Gupta D, et al. CovidGAN: data augmentation using auxiliary classifier GAN for improved Covid-19 detection[J]. IEEE Access, 2020, 8: 91916-91923. DOI: 10.1109/ACCESS.2020.2994762.

23.Pang T, Wong JHD, NG WL, et al. Semi-supervised GAN-based radiomics model for data augmentation in breast ultrasound mass classification[J]. Comput Methods Programs Biomed, 2021, 203: 106018. DOI: 10.1016/j.cmpb.2021.106018.

Xu K, Hu W, Leskovec J, et al. How powerful are graph neural networks?[EB/OL]. (2019-02-22) [2024-10-17]. https://doi.org/10.48550/arXiv.1810.00826.

25.Waikhom L, Patgiri R. Graph neural networks: methods, applications, and opportunities[EB/OL]. (2021-09-08) [2024-10-17]. https://doi.org/10.48550/arXiv.2108.10733.

26.Kipf TN, Welling M. Semi-supervised classification with graph convolutional networks[EB/OL]. (2017-02-22) [2024-10-17]. https://doi.org/10.48550/arXiv.1609.02907.

27.Oh J, Cho K, Bruna J. Advancing GraphSAGE with a data-driven node sampling[EB/OL]. (2019-04-29) [2024-10-17]. https://doi.org/10.48550/arXiv.1904.12935.

28.Brody S, Alon U, Yahav E. How attentive are graph attention networks?[EB/OL]. (2022-01-31) [2024-10-17]. https://doi.org/10.48550/arXiv.2105.14491.

Kipf TN, Welling M. Variational graph auto-encoders[EB/OL]. (2016-11-21) [2024-10-17]. https://doi.org/10.48550/arXiv.1611.07308.

30.Hou J, Wei H, Liu B. iPiDA-GCN: identification of piRNA-disease associations based on Graph Convolutional Network[J]. PLoS Comput Biol, 2022, 18(10): e1010671. DOI: 10.1371/journal.pcbi.1010671.

31.Liu W, Teng Z, Li Z, et al. CVGAE: a self-supervised generative method for gene regulatory network inference using single-cell RNA sequencing data[J]. Interdiscip Sci Comput Life Sci, 2024, 16(4): 990-1004. DOI: 10.1007/s12539-024-00633-y.

32.Gao H, Xiao J, Yin Y, et al. A mutually supervised graph attention network for few-shot segmentation: the perspective of fully utilizing limited samples[J]. IEEE Trans Neural Netw Learn Syst, 2024, 35(4): 4826-4838. DOI: 10.1109/TNNLS.2022.3155486.

33.Huang Q, Qiao C, Jing K, et al. Biomarkers identification for schizophrenia via VAE and GSDAE-based data augmentation[J]. Comput Biol Med, 2022, 146: 105603. DOI: 10.1016/j.compbiomed.2022.105603.

34.Pan SJ, Yang Q. A survey on transfer learning[J]. IEEE Trans Knowl Data Eng, 2010, 22(10): 1345-1359. DOI: 10.1109/TKDE.2009.191.

35.Zhuang F, Qi Z, Duan K, et al. A comprehensive survey on transfer learning[J]. Proc IEEE, 2021, 109(1): 43-76. DOI: 10.1109/JPROC.2020.3004555.

36.Lu Q, Liu W, Zhuo Z, et al. A transfer learning approach to few-shot segmentation of novel white matter tracts[J]. Med Image Anal, 2022, 79: 102454. DOI: 10.1016/j.media.2022.102454.

37.Ng Y, Liao MT, Chen TL, et al. Few-shot transfer learning for personalized atrial fibrillation detection using patient-based siamese network with single-lead ECG records[J]. Artif Intell Med, 2023, 144: 102644. DOI: 10.1016/j.artmed.2023.102644.

38.Mammone N, Ieracitano C, Spataro R, et al. A few-shot transfer learning approach for motion intention decoding from electroencephalographic signals[J]. Int J Neural Syst, 2024, 34(2): 2350068. DOI: 10.1142/S0129065723500685.

39.Sharifi-Noghabi H, Peng S, Zolotareva O, et al. AITL: adversarial inductive transfer learning with input and output space adaptation for pharmacogenomics[J]. Bioinformatics, 2020, 36(Suppl_1): i380-i388. DOI: 10.1093/bioinformatics/btaa442.

40.Sutton RS, Barto AG. Reinforcement learning: an introduction[J]. IEEE Trans Neural Netw, 1998, 9(5): 1054-1054. DOI: 10.1109/TNN.1998.712192.

41.Sutton RS. Reinforcement learning[C/OL]. (1992) [2024-10-18]. https://www.semanticscholar.org/paper/Reinforcement-Learning-Sutton/9bac29e1cc7420375666ca85e6ef2db47f1fa1f2.

42.Doya K. Reinforcement learning: computational theory and biological mechanisms[J]. HFSP J, 2007, 1(1): 30-40. DOI: 10.2976/1.2732246/10.2976/1.

43.Jia J, Wang W. Review of reinforcement learning research[C/OL]. (2020) [2024-10-18]. https://ieeexplore.ieee.org/document/ 9337653.

44.Jang B, Kim M, Harerimana G, et al. Q-learning algorithms: a comprehensive classification and applications[J]. IEEE Access, 2019, 7: 133653-133667. DOI: 10.1109/ACCESS.2019.2941229.

45.Lai X, Hu Q, Wang W, et al. Adaptive resource allocation method based on deep Q network for industrial internet of things[J]. IEEE Access, 2020, 8: 27426-27434. DOI: 10.1109/ACCESS.2020.2971228.

46.Li S, Wu Y, Cui X, et al. Robust multi-agent reinforcement learning via minimax deep deterministic policy gradient[J]. AAAI Conf Artif Intell, 2019, 33(1): 4213-4220. DOI: 10.1609/aaai.v33i01.33014213.

47.Schulman J, Wolski F, Dhariwal P, et al. Proximal policy optimization algorithms[EB/OL]. (2017-08-28) [2024-10-18]. https://doi.org/10.48550/arXiv.1707.06347.

48.Dou H, Tan J, Wei H, et al. Transfer inhibitory potency prediction to binary classification: A model only needs a small training set[J]. Comput Methods Programs Biomed, 2022, 215: 106633. DOI: 10.1016/j.cmpb.2022.106633.

49.Cui L, Lu Y, Sun J, et al. RFLMDA: a novel reinforcement learning-based computational model for human microRNA-disease association prediction[J]. Biomolecules, 2021, 11(12): 1835. DOI: 10.3390/biom11121835.

50.Wang X, Ma Z, Cao L, et al. A planar tracking strategy based on multiple-interpretable improved PPO algorithm with few-shot technique[J]. Sci Rep, 2024, 14(1): 3910. DOI: 10.1038/s41598-024-54268-6.

51.Xu C, Zhang T, Zhang D, et al. Deep generative adversarial reinforcement learning for semi-supervised segmentation of low-contrast and small objects in medical images[J]. IEEE Trans Med Imaging, 2024, 43(9): 3072-3084. DOI: 10.1109/TMI.2024.3383716.

52.Zhu H, Cheng H, Yang X, et al. Metric learning for multi-atlas based segmentation of hippocampus[J]. Neuroinformatics, 2017, 15(1): 41-50. DOI: 10.1007/s12021-016-9312-y.

53.Song HO, Xiang Y, Jegelka S, et al. Deep metric learning via lifted structured feature embedding[C/OL]. (2016) [2024-10-18]. https://ieeexplore.ieee.org/document/7780803.

54.He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C/OL]. (2016) [2024-10-18]. https://ieeexplore.ieee.org/document/7780459.

55.Luo H, Zhu C, Wang J, et al. Prediction of drug-disease associations based on reinforcement symmetric metric learning and graph convolution network[J]. Front Pharmacol, 2024, 15: 1337764. DOI: 10.3389/fphar.2024.1337764.

56.Luo H, Wang J, Yan C, et al. A novel drug repositioning approach based on collaborative metric learning[J]. IEEE/ACM Trans Comput Biol Bioinform, 2021, 18(2): 463-471. DOI: 10.1109/TCBB.2019.2926453.

57.Zhang L, Abdeen N, Lang J. A novel center-based deep contrastive metric learning method for the detection of polymicrogyria in pediatric brain MRI[J]. Comput Med Imaging Graph, 2024, 114: 102373. DOI: 10.1016/j.compmedimag.2024.102373.

58.Finn C, Abbeel P, Levine S. Model-agnostic Meta-learning for fast adaptation of deep networks[EB/OL]. (2017-07-18) [2024-10-18]. https://doi.org/10.48550/arXiv.1703.03400.

59.Elsken T, Staffler B, Metzen JH, et al. Meta-learning of neural architectures for few-shot learning[C/OL]. (2020) [2024-10-18]. https://ieeexplore.ieee.org/document/9157641.

60.Franceschi L, Frasconi P, Salzo S, et al. Bilevel programming for hyperparameter optimization and Meta-learning[EB/OL]. (2018-07-03) [2024-10-18]. https://doi.org/10.48550/arXiv.1806.04910.

61.Nguyen NP, Lopez S, Smith CL, et al. Axon and myelin sheath segmentation in electron microscopy images using Meta learning[J/OL]. IEEE Appl Imag Pattern Recognit Workshop, 1-15. [2023-05-19]. https://pmc.ncbi.nlm.nih.gov/articles/PMC10197949/.

62.Shi P, Xin J, Du S, et al. Automatic lumen and anatomical layers segmentation in IVOCT images using Meta learning[J]. J Biophotonics, 2023, 16(9): e202300059. DOI: 10.1002/jbio.202300059.

63.Chen KH, Hu YJ. Residue-residue interaction prediction via stacked Meta-learning[J]. Int J Mol Sci, 2021, 22(12): 6393. DOI: 10.3390/ijms22126393.

64.Zhang Y, Qiu L, Ren Y, et al. A Meta-learning approach to improving radiation response prediction in cancers[J]. Comput Biol Med, 2022, 150: 106163. DOI: 10.1016/j.compbiomed. 2022.106163.

65.Landrum GA, Riniker S. Combining IC50 or ki values from different sources is a source of significant noise[J]. J Chem Inf Model, 2024, 64(5): 1560-1567. DOI: 10.1021/acs.jcim.4c00049.

66.Kurczab R, Smusz S, Bojarski AJ. The influence of negative training set size on machine learning-based virtual screening[J]. J Cheminform, 2014, 6(1): 32. DOI: 10.1186/1758-2946-6-32.

67.Zhang QQ, Zhang SW, Feng YH, et al. Few-shot drug synergy prediction with a prior-guided hypernetwork architecture[J]. IEEE Trans Pattern Anal Mach Intell, 2023, 45(8): 9709-9725. DOI: 10.1109/TPAMI.2023.3248041.

68.Liu K, Han Y, Gong Z, et al. Low-data drug design with few-shot generative domain adaptation[J]. Bioengineering, 2023, 10(9): 1104. DOI: 10.3390/bioengineering10091104.

69.Feng H, Gao K, Chen D, et al. Machine learning analysis of cocaine addiction informed by DAT, SERT, and NET-based interactome networks[J]. J Chem Theory Comput, 2022, 18(4): 2703-2719. DOI: 10.1021/acs.jctc.2c00002.

70.Shen X, Liu Y. MoLGNN: self-supervised motif learning graph neural network for drug discovery[C]. Machine Learning for Molecules Workshop at NeurIPS 2020, 2020. 4.

71.Tomczak K, Czerwińska P, Wiznerowicz M. The Cancer Genome Atlas (TCGA): an immeasurable source of knowledge[J]. Contemp Oncol (Poznan), 2015, 19(1A): A68-A77. DOI: 10.5114/wo.2014.47136.

72.Liu Y, Zhou Y, Liu X, et al. Wasserstein GAN-based small-sample augmentation for new-generation artificial intelligence: a case study of cancer-staging data in biology[J]. Engineering, 2019, 5(1): 156-163. DOI: 10.1016/j.eng.2018.11.018.

73.Hsu TC, Lin C. Generative adversarial networks for robust breast cancer prognosis prediction with limited data size[C/OL]. (2020)[2024-10-01]. https://ieeexplore.ieee.org/document/9175736/.

74.Wei K, Li T, Huang F, et al. Cancer classification with data augmentation based on generative adversarial networks[J]. Front Comput Sci, 2021, 16(2): 162601. DOI: 10.1007/s11704-020-0025-x.

75.Protonotarios NE, KAtsamenis I, Sykiotis S, et al. A few-shot U-Net deep learning model for lung cancer lesion segmentation via PET/CT imaging[J]. Biomed Phys Eng Express, 2022, 8(2). DOI: 10.1088/2057-1976/ac53bd.

76.Gore JC. Artificial intelligence in medical imaging[J]. Magn Reson Imaging, 2020, 68: A1-A4. DOI: 10.1016/j.mri.2019.12.006.

77.Frid-Adar M, Diamant I, Klang E, et al. GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification[J]. Neurocomputing, 2018, 321: 321-331. DOI: 10.1016/j.neucom.2018.09.013.

78.Bai Y, Yu Q, Yun B, et al. FS-MedSAM2: exploring the potential of SAM2 for few-shot medical image segmentation without fine-tuning[EB/OL]. (2024) [2024-10-08]. https://doi.org/10.48550/arXiv.2409.04298.

79.Lin Y, Chen Y, Cheng KT, et al. Few shot medical image segmentation with cross attention transformer[EB/OL]. (2023-09-21) [2024-10-08]. https://doi.org/10.48550/arXiv.2303.13867.

80.Ding H, Sun C, Tang H, et al. Few-shot medical image segmentation with cycle-resemblance attention[C/OL]. (2023)[2024-10-08]. https://ieeexplore.ieee.org/document/10030099/?arnumber=10030099.

81.Wang Y, Yao Q, Kwok JT, et al. Generalizing from a few examples: a survey on few-shot learning[J]. ACM Comput Surv, 2020, 53(3): 63. DOI: 10.1145/3386252.

82.Feng R, Zheng X, Gao T, et al. Interactive few-shot learning: limited supervision, better medical image segmentation[J]. IEEE Trans Med Imaging, 2021, 40(10): 2575-2588. DOI: 10.1109/TMI.2021.3060551.

83.Li X, Sun Z, Xue JH, et al. A concise review of recent few-shot meta-learning methods[J]. Neurocomputing, 2021, 456: 463-468. DOI: 10.1016/j.neucom.2020.05.114.

84.Li X, Yang X, Ma Z, et al. Deep metric learning for few-shot image classification: a review of recent developments[J]. Pattern Recognition, 2023, 138: 109381. DOI: 10.1016/j.patcog.2023.109381.

85.Lu MY, Chen B, Williamson DFK, et al. A visual-language foundation model for computational pathology[J]. Nat Med, 2024, 30(3): 863-874. DOI: 10.1038/s41591-024-02856-4.

86.Chen T, Lin L, Chen R, et al. Knowledge-guided multi-label few-shot learning for general image recognition[J]. IEEE TPAMI, 2022, 44(3): 1371-1384. DOI: 10.1109/TPAMI.2020.3025814.

87.Yu X, Wang J, Hong QQ, et al. Transfer learning for medical images analyses: a survey[J]. Neurocomputing, 2022, 489: 230-254. DOI: 10.1016/j.neucom.2021.08.159.

88.Song X, Mao M, Qian X. Auto-metric graph neural network based on a Meta-learning strategy for the diagnosis of Alzheimer's disease[J]. IEEE JBHI, 2021, 25(8): 3141-3152. DOI: 10.1109/JBHI.2021.3053568.

89.Candemir S, Nguyen XV, Folio LR, et al. Training strategies for radiology deep learning models in data-limited scenarios[J]. Radiol Artif Intell, 2021, 3(6): e210014. DOI: 10.1148/ryai.2021210014.

90.Song Y, Wang T, Cai P, et al. A comprehensive survey of few-shot learning: evolution, applications, challenges, and opportunities[J]. ACM Comput Surv, 2023, 55(13s): 1-40. DOI: 10.1145/3582688.

91.Tian S, Li L, Li W, et al. A survey on few-shot class-incremental learning[J]. Neural Networks, 2024, 169: 307-324. DOI: 10.1016/j.neunet.2023.10.039.

92.Patricio C, Neves JC, Lincs N, et al. Explainable deep learning methods in medical image classification: a survey[J]. ACM Comput Surv, 2024, 56(4): 85. DOI: 10.1145/3625287.

93.Lake BM, Baroni M. Human-like systematic generalization through a Meta-learning neural network[J]. Nature, 2023, 623(7985): 115-121. DOI: 10.1038/s41586-023-06668-3.

94.Zhu H, Liu W, Gao Z, et al. Explainable classification of benign-malignant pulmonary nodules with neural networks and information bottleneck[J]. IEEE TNNLS, 2023, 36(2): 2028-2039. DOI: 10.1109/TNNLS.2023.3303395.

95.Withnell E, Zhang X, Sun K, et al. XOmiVAE: an interpretable deep learning model for cancer classification using high-dimensional omics data[J]. Brief Bioinform, 2021, 22(6): bbab315. DOI: 10.1093/bib/bbab315.

96.Stahlschmidt SR, Ulfenborg B, Synnergren J. Multimodal deep learning for biomedical data fusion: a review[J]. Brief Bioinform, 2022, 23(2): bbab569. DOI: 10.1093/bib/bbab569.

97.Huisman M, Van Rijn JN, Plaat A. A survey of deep Meta-learning[J]. Artif Intell Rev, 2021, 54(6): 4483-4541. DOI: 10.1007/s10462-021-10004-4.

98.Lee K, Cavalcanti TC, Kim S, et al. Multi-task and few-shot learning-based fully automatic deep learning platform for mobile diagnosis of skin diseases[J]. IEEE JBHI, 2022, 23(2): bbab569. DOI: 10.1109/JBHI.2022.3193685.

99.Pellegrini C, Navab N, Kazi A. Unsupervised pre-training of graph transformers on patient population graphs[J]. Med Image Anal, 2023, 89: 102895. DOI: 10.1016/j.media.2023.102895.

100.Pu X, Li C. Online semisupervised broad learning system for industrial fault diagnosis[J]. IEEE TII, 2021, 17(10): 6644-6654. DOI: 10.1109/TII.2020.3048990.

101.Liu Y, Wang Y, Chen L, et al. Incremental Bayesian broad learning system and its industrial application[J]. Artif Intell Rev, 2021, 54(5): 3517-3537. DOI: 10.1007/s10462-020-09929-z.

102.Diao L, Yang W, Zhu P, et al. The research of clinical temporal knowledge graph based on deep learning[J]. J Intell Fuzzy Syst, 2021, 41(3): 4265-4274. DOI: 10.3233/JIFS-189687.

103.Lu X, Sun X, Diao W, et al. LIL: lightweight incremental learning approach through feature transfer for remote sensing image scene classification[J]. IEEE TGRS, 2022, 60: 1-20. DOI: 10.1109/TGRS.2021.3102629.

104.Hu D, Li S, Wu N, et al. A multi-modal heterogeneous graph forest to predict lymph node metastasis of non-small cell lung cancer[J]. IEEE JBHI, 2023, 27(3): 1216-1224. DOI: 10.1109/JBHI.2022.3233387.

105.Zhao F, Huang T, Wang D. Graph few-shot learning via restructuring task graph[J]. IEEE Trans Neural Netw Learn Syst, 2022, 35(1): 1-8. DOI: 10.1109/TNNLS.2022.3178849.