博客

  • InfoBatch: 用无偏动态数据剪枝加速训练,实现无损性能提升

    大型模型训练的成本越来越高,如何降低训练成本并保持模型性能成为了研究热点。本文将介绍一种名为InfoBatch的全新框架,它通过无偏动态数据剪枝来加速模型训练,并实现无损性能提升。

    训练加速的挑战

    近年来,深度学习在计算机视觉领域取得了巨大进步,但许多最先进的模型需要在超大规模数据集上进行训练,这对于资源有限的研究者来说是一个巨大的挑战。

    减少训练样本数量是一个直观的解决方案。数据集蒸馏核心集选择分别通过合成或选择信息量更大的数据集/子集来降低训练成本。然而,这些方法需要额外的计算成本,而且很难实现无损性能。

    加权采样方法通过提高某些样本的采样频率来加速训练,但其加速效果对模型和数据集敏感。LARSLAMB通过使用超大批量大小来提高数据并行度,但需要更多的计算单元,总训练成本并没有降低。

    最近,一些研究开始通过减少训练迭代次数来加速训练。静态剪枝方法通过估计每个样本的得分,并根据得分剪枝掉信息量较小的样本。但这些方法通常需要多次试验才能估计出更准确的得分,这需要额外的计算成本,有时甚至比在大型数据集上进行训练的时间还要长。

    动态剪枝方法在训练过程中根据样本得分动态地剪枝,避免了静态剪枝方法的额外成本。然而,直接剪枝数据会导致梯度估计偏差,影响模型的收敛结果。

    InfoBatch:无偏动态数据剪枝框架

    为了解决这些问题,InfoBatch提出了一种基于无偏动态数据剪枝的全新框架。InfoBatch通过维护每个样本的得分(使用其损失值),并随机剪枝掉得分较低的样本,同时对剩余样本的梯度进行重新缩放,以保持与原始数据集相同的梯度期望。

    InfoBatch的主要特点:

    • 无偏动态剪枝: InfoBatch使用随机剪枝策略,避免了传统动态剪枝方法中直接丢弃样本导致的梯度偏差。
    • 梯度期望重新缩放: InfoBatch对剩余样本的梯度进行重新缩放,以保持与原始数据集相同的梯度期望,从而保证模型的收敛性能。
    • 高效性: InfoBatch的时间复杂度为O(1),比传统动态剪枝方法的O(logN)快得多。
    • 通用性: InfoBatch可以应用于各种深度学习任务,包括分类、语义分割、视觉感知和语言模型指令微调。

    实验结果

    InfoBatch在多个数据集上进行了实验,包括CIFAR-10/100、ImageNet-1K、ADE20K和FFHQ。实验结果表明,InfoBatch能够在各种任务和架构上实现无损训练性能,并将总训练成本降低20%~40%。

    InfoBatch的优势:

    • 无损性能: InfoBatch在各种数据集和模型架构上都能够实现无损性能提升。
    • 高效性: InfoBatch的额外成本非常低,甚至比传统动态剪枝方法快10倍。
    • 通用性: InfoBatch可以应用于各种深度学习任务,包括分类、语义分割、视觉感知和语言模型指令微调。

    未来展望

    InfoBatch是一个很有潜力的框架,可以帮助研究者更有效地训练大型模型。未来,InfoBatch可以进一步改进,例如:

    • 探索更有效的剪枝策略: 研究更有效的剪枝策略,以进一步降低训练成本,同时保持模型性能。
    • 扩展到其他任务: 将InfoBatch扩展到其他深度学习任务,例如自然语言处理、语音识别等。

    参考文献

    • Qin, Z., Wang, K., Zheng, Z., Gu, J., Peng, X., Xu, Z., … & You, Y. (2024). Infobatch: Lossless training speed up by unbiased dynamic data pruning. arXiv preprint arXiv:2303.00743.

    InfoBatch为大型模型训练提供了一种新的解决方案,它能够在保证模型性能的同时显著降低训练成本。相信InfoBatch将在未来得到更广泛的应用,推动深度学习研究的发展。


    https://openreview.net/pdf?id=C61sk5LsK6


    Q: 这篇论文试图解决什么问题?

    A: 这篇论文提出了一个名为InfoBatch的新型框架,旨在通过无偏动态数据修剪来加速训练过程,同时保持无损的性能。具体来说,它试图解决以下问题:

    1. 训练成本高:深度学习模型,尤其是在大规模数据集上的训练,通常需要大量的计算资源,这对于资源有限的研究者来说是一个挑战。
    2. 数据修剪的偏差问题:传统的数据修剪方法通过过滤掉对训练贡献较小的样本来减少数据量,但这可能导致与原始数据相比的梯度期望偏差,从而影响模型的收敛和性能。
    3. 静态修剪方法的局限性:静态修剪方法在训练前确定要丢弃的样本,这可能导致额外的成本,并且难以实现无损性能。
    4. 动态修剪方法的效率问题:尽管动态修剪方法在训练过程中进行样本修剪,减少了迭代次数,但它们通常需要在每次修剪周期中对整个数据集进行排序,这在大规模数据集上可能导致显着的开销。

    为了解决这些问题,InfoBatch框架通过以下方式实现无损训练加速:

    • 随机修剪:在每个训练周期中,根据损失分布随机修剪一部分信息量较小的样本。
    • 梯度重缩:对剩余样本的梯度进行重缩,以近似原始数据集的梯度期望。
    • 架构无关性:作为一个即插即用的框架,InfoBatch适用于多种深度学习任务,包括分类、语义分割、视觉相关任务和指令微调任务。
    • 无偏性:通过期望重缩策略,InfoBatch减少了优化过程中的梯度期望偏差,从而保持了与标准训练相似的性能。

    通过这些方法,InfoBatch在多个数据集和任务上实现了无损训练结果,同时显着减少了训练成本。

    Q: 有哪些相关研究?

    A: 相关研究主要集中在以下几个领域:

    1. 静态数据修剪(Static Data Pruning)
      • 这类方法旨在使用较少的样本实现与原始数据集相当的性能。它们通常基于预定义的或启发式的度量来选择样本。例如,基于几何、不确定性、错误、决策边界、梯度匹配、双层优化和次模函数的方法。
    2. 动态数据修剪(Dynamic Data Pruning)
      • 动态数据修剪方法在训练过程中进行样本修剪,以减少训练迭代次数。例如,基于不确定性值的UCB和ϵ-greedy方法,以及基于可学习样本优先级的方法。
    3. 数据集蒸馏(Dataset Distillation)
      • 数据集蒸馏方法通过合成或选择原始大型数据集的有信息子集来减少样本数量。这些方法通常涉及额外的成本,并且难以实现无损性能。
    4. 内核集选择(Coreset Selection)
      • 内核集选择方法通过选择数据的代表性子集来减少训练数据量。这些方法通常基于特定的评分函数或启发式知识来选择样本。
    5. 大型批量训练(Large Batch Training)
      • 大型批量训练方法通过增加批量大小来提高数据并行性,从而加速训练。然而,这通常需要更大的学习率,并且可能在训练稳定性方面带来挑战。
    6. 重要性采样(Importance Sampling)
      • 重要性采样方法通过提高某些样本的采样频率来加速训练收敛。这些方法在模型和数据集上的加速效果可能有所不同。
    7. 数据增强(Data Augmentation)
      • 数据增强方法通过生成新的样本变体来增加数据多样性,这有助于提高模型的泛化能力。例如,MixUp、CutMix和Random Erase等技术。
    8. 模型压缩(Model Compression)
      • 模型压缩技术旨在减少模型的大小和计算需求,例如通过权重剪枝、量化和知识蒸馏等方法。
    9. 训练加速技术(Training Acceleration Techniques)
      • 包括但不限于梯度累积、模型并行化、数据并行化和流水线并行化等技术,用于加速训练过程。

    这些相关研究为InfoBatch框架提供了背景和对比,展示了在数据修剪和训练加速方面的不同方法和策略。InfoBatch通过结合动态修剪和梯度重缩的方法,旨在在保持训练性能的同时减少训练成本。

    Q: 论文如何解决这个问题?

    A: 论文提出了一个名为InfoBatch的框架,通过以下关键策略来解决训练成本高和数据修剪偏差的问题:

    1. 无偏动态数据修剪:InfoBatch在训练过程中动态地修剪数据,而不是在训练前一次性决定。这种方法允许模型在训练的不同阶段适应性地选择样本,从而减少静态修剪可能引入的偏差。
    2. 随机修剪:在每个训练周期中,InfoBatch根据样本的损失值(作为评分)随机修剪一部分信息量较小(即损失较小)的样本。这种随机性有助于避免硬修剪可能引入的梯度期望偏差。
    3. 梯度重缩:对于剩余的样本,InfoBatch通过重缩其梯度来补偿因修剪导致的梯度更新数量减少。具体来说,对于每个剩余样本,如果其损失值小于当前周期的平均损失值,就将其梯度按一定比例放大,以保持与原始数据集相似的梯度期望。
    4. 期望重缩:InfoBatch通过调整梯度的期望值来近似原始数据集的梯度分布。这种方法确保了在修剪过程中,模型的优化目标与原始数据集训练时的目标保持一致。
    5. 退火策略(Annealing):在训练的最后几个周期,InfoBatch会逐渐减少修剪的比例,以确保模型有足够的机会从所有样本中学习。这有助于减少由于早期修剪导致的潜在偏差。
    6. 架构无关性:InfoBatch作为一个即插即用的框架,可以与不同的深度学习架构和任务兼容,包括分类、语义分割、视觉相关任务和指令微调任务。
    7. 实验验证:论文通过在多个数据集(如CIFAR-10/100、ImageNet-1K、ADE20K等)和不同模型(如ResNet、ViT、Swin Transformer等)上的实验,验证了InfoBatch在减少训练成本的同时保持无损性能的能力。

    通过这些策略,InfoBatch能够在减少训练成本的同时,保持或甚至提高模型的性能,从而在实际应用中具有较高的实用价值。

    Q: 论文做了哪些实验?

    A: 论文中进行了一系列实验来验证InfoBatch框架的有效性和效率。以下是主要的实验内容:

    1. 数据集和模型选择
      • 实验在多个流行的数据集上进行,包括CIFAR-10/100、ImageNet-1K、ADE20K和FFHQ。
      • 使用了多种深度学习模型进行评估,如ResNet18、ResNet50、ViT-Base(MAE)、Swin-Tiny等。
    2. 性能比较
      • 将InfoBatch与静态和动态数据修剪方法进行了比较,以评估其在不同数据集和模型上的性能。
      • 与现有的数据集蒸馏和内核集选择方法进行了比较,以展示InfoBatch在减少训练成本的同时保持无损性能的能力。
    3. 效率比较
      • 对比了InfoBatch与其他方法在训练时间、额外成本和总GPU小时数方面的效率。
      • 展示了InfoBatch在减少训练时间的同时保持性能的潜力。
    4. 消融实验
      • 对InfoBatch的关键组件进行了消融实验,包括软修剪(Soft Pruning)、期望重缩(Expectation Rescaling)和退火(Annealing)策略。
      • 分析了不同修剪策略(如基于损失值的修剪条件)对性能和成本的影响。
    5. 跨架构和跨优化器的鲁棒性评估
      • 在不同的模型架构和优化器(如SGD、AdamW、LARS、LAMB)上测试了InfoBatch的鲁棒性。
    6. 跨任务的泛化能力评估
      • 在语义分割任务上应用InfoBatch,并在ADE20K数据集上进行了评估。
      • 在Latent Diffusion模型的FFHQ数据集上进行了实验,以评估InfoBatch在生成任务上的效果。
    7. 指令微调任务的应用
      • 在LLaMA语言模型的指令微调任务上应用InfoBatch,并与原始数据集训练进行了比较。
    8. 与其他训练技术的兼容性
      • 验证了InfoBatch与混合精度训练、数据增强/正则化方法(如MixUp、CutMix、Random Erase)的兼容性。
    9. 时间复杂度分析
      • 对InfoBatch的操作(如排序、修剪、重缩等)在不同数据集大小上的时间成本进行了分析。

    这些实验结果表明,InfoBatch能够在多种任务和数据集上实现无损训练加速,同时显着降低训练成本,且具有很好的泛化能力和与其他训练技术的兼容性。

    Q: 有什么可以进一步探索的点?

    A: 尽管InfoBatch在多个方面取得了显着的成果,但仍有一些潜在的研究方向可以进一步探索:

    1. 模型预测偏差
      • 研究在应用InfoBatch时,模型预测偏差的可能性,并探索如何量化和减轻这种偏差。
    2. 多任务学习
      • 探索InfoBatch在多任务学习框架中的性能,特别是在需要共享数据集但任务之间存在差异的情况下。
    3. 小数据集上的适用性
      • 分析InfoBatch在小规模数据集上的表现,以及是否需要调整策略以适应数据量较少的情况。
    4. 超参数优化
      • 研究如何自动化调整InfoBatch中的超参数(如修剪概率r和退火参数δ),以实现最佳性能。
    5. 与其他加速技术的集成
      • 探索将InfoBatch与其他训练加速技术(如模型并行化、梯度累积等)结合的可能性,以进一步提高训练效率。
    6. 理论分析
      • 对InfoBatch的理论基础进行更深入的研究,包括梯度期望、方差分析和收敛性保证。
    7. 实际应用场景
      • 在实际应用场景中测试InfoBatch,如自动驾驶、医疗图像分析等领域,以评估其在实际问题中的有效性。
    8. 长期影响
      • 研究长期应用InfoBatch对模型泛化能力和鲁棒性的影响。
    9. 可解释性和透明度
      • 探索如何在InfoBatch框架中增加模型的可解释性和透明度,以便更好地理解模型的决策过程。
    10. 环境影响
      • 评估InfoBatch在减少计算资源消耗方面对环境的潜在影响,以及如何优化以实现更可持续的AI研究。

    这些研究方向可以帮助研究人员更全面地理解InfoBatch的潜力和局限性,同时推动深度学习训练方法的进一步发展。

    Q: 总结一下论文的主要内容

    A: 这篇论文介绍了InfoBatch,这是一个新颖的框架,旨在通过无偏动态数据修剪来加速深度学习模型的训练,同时保持训练结果的无损性能。以下是论文的主要内容总结:

    1. 问题背景:深度学习模型,尤其是在大规模数据集上的训练,通常需要大量的计算资源。减少训练成本同时保持性能是一个重要的研究课题。
    2. 现有方法的局限性:静态数据修剪和动态数据修剪方法存在性能损失、额外成本和效率问题。这些方法难以在保持无损性能的同时减少训练成本。
    3. InfoBatch框架:提出了一个无偏的动态数据修剪框架,通过随机修剪信息量较小的样本,并重缩剩余样本的梯度,以近似原始数据集的梯度期望。
    4. 关键策略
      • 随机修剪:根据损失分布随机修剪样本,减少硬修剪的偏差。
      • 梯度重缩:对剩余样本的梯度进行重缩,以补偿修剪导致的梯度更新数量减少。
      • 期望重缩:通过调整梯度的期望值来近似原始数据集的梯度分布。
      • 退火策略:在训练后期逐渐减少修剪比例,以减少潜在偏差。
    5. 实验验证:在多个数据集(如CIFAR-10/100、ImageNet-1K等)和模型(如ResNet、ViT等)上进行了广泛的实验,证明了InfoBatch在减少训练成本的同时能够保持或提高模型性能。
    6. 消融实验:通过消融实验分析了InfoBatch中各个组件的作用,如软修剪、梯度重缩和退火策略。
    7. 跨架构和任务的泛化能力:展示了InfoBatch在不同模型架构和任务(如分类、语义分割、生成模型等)上的泛化能力。
    8. 与其他训练技术的兼容性:验证了InfoBatch与混合精度训练、数据增强等先进训练技术的兼容性。
    9. 时间复杂度分析:分析了InfoBatch操作的时间成本,特别是在大规模数据集上的性能。
    10. 未来研究方向:提出了一些潜在的研究方向,如模型预测偏差、多任务学习、超参数优化等。

    总的来说,这篇论文提出了一个有效的框架来解决深度学习训练中的成本和性能问题,并通过实验验证了其有效性。同时,它也为未来的研究提供了新的方向。


  • 数据为王:深度部分标签学习中的候选标签集剪枝

    近年来,深度学习技术在各个领域取得了巨大成功,但其有效训练通常需要大量完美标注的数据,这在实际应用中是一个巨大的挑战。为了在数据质量和标注成本之间取得平衡,部分标签学习(PLL)应运而生。PLL 允许为每个训练样本分配一个候选标签集,其中只有一个是真实标签。

    传统的深度 PLL 研究主要从学习的角度出发,设计各种训练策略来解决标签歧义问题,例如识别候选标签集中隐藏的真实标签。然而,当候选标签集的大小过大时,这些学习策略将难以找到真实标签,导致模型性能下降。

    本文提出了一种新的数据驱动方法,称为候选标签集剪枝(CLSP),旨在以无训练的方式过滤掉候选标签集中潜在的错误标签。

    CLSP:数据中心的视角

    CLSP 的核心思想是利用表示空间和候选标签空间之间的不一致性来识别错误标签。具体而言,对于一个训练样本的每个候选标签,如果它不是该样本在表示空间中最近邻样本的候选标签,那么它很可能是一个错误标签。

    基于此直觉,本文提出了一种基于实例的剪枝方案,该方案通过计算每个候选标签在最近邻样本中出现的频率来衡量其为错误标签的可能性。具体而言,对于样本 x_i 的第 j 个候选标签 y_{ij},我们定义了一个指标 O_{ij} 来衡量其为错误标签的可能性:

        \[O_{ij} = \sum_{v=1}^{k} \mathbb{I}[y_{ij} \notin Y_{p_{v}^{i}}], \quad \forall j \in Y_i,\]

    其中,Y_{p_{v}^{i}} 表示 x_i 的第 v 个最近邻样本的候选标签集,\mathbb{I}[.] 表示指示函数。

    然后,我们根据 O_{ij} 的值来剪枝。具体而言,对于每个样本 x_i,我们从其候选标签集中删除 O_{ij} 值最大的 \gamma_i 个候选标签:

        \[r_{Y_i} = Top-\gamma_i-argmax_{j \in Y_i} (O_{ij}),\]

    其中,Top-\gamma_i-argmax 返回 O_{ij} 值最大的 \gamma_i 个候选标签的索引。

    理论分析

    本文对 CLSP 的剪枝误差进行了理论分析,证明了剪枝误差的上界,并分析了表示质量对算法的影响。

    定理 1: 假设 PLL 数据集满足 (k, \delta_k, \rho_k) 标签可区分性。对于每个 PLL 样本 (x_i, Y_i),假设 Y_i 中的第 y 个标签是真实标签,Y_i^{1} 中的第 y_1 个标签是任意一个错误标签,即 y_1 \neq y。给定剪枝的标签数量 \gamma_i,则发生错误剪枝的概率可以被以下上界限制:

        \[P(O_{iy_1} < O_{iy}) \leq \sum_{j=1}^{k} \sum_{m=\xi_i}^{|Y_i^{1}|} \binom{|Y_i^{1}|}{m} \eta^m (1-\eta)^{|Y_i^{1}|-m} \delta_k \binom{k}{j},\]

    其中,\xi_i = |Y_i^{1}| - \gamma_i + 1\eta = I_{\rho_k}(k-j+1, j)I_{\rho_k}(k, j) 表示正则化不完全贝塔函数,\binom{n}{r} 表示组合公式。

    定理 2: 在定理 1 的假设下,当增加剪枝的标签数量(即 \gamma_i^2 > \gamma_i^1)时,额外的剪枝误差可以被以下上界限制:

        \[P(O_{iy_1} < O_{iy}) - P(O_{iy_1} < O_{iy}) \leq \sum_{j=1}^{k} \sum_{m=\xi_1^i}^{\xi_2^i-1} \binom{|Y_i^{1}|}{m} \eta^m (1-\eta)^{|Y_i^{1}|-m} \delta_k \binom{k}{j},\]

    其中,\xi_1^i = |Y_i^{1}| - \gamma_i^1 + 1\xi_2^i = |Y_i^{1}| - \gamma_i^2 + 1,其他符号与定理 1 中相同。

    实验结果

    本文在 CIFAR-10、CIFAR-100、Tiny-ImageNet 和 PASCAL VOC 等数据集上进行了大量实验,验证了 CLSP 方法的有效性。实验结果表明,CLSP 方法能够显著提高各种深度 PLL 方法的性能,尤其是在标签依赖和实例依赖的候选标签生成情况下。

    结论

    本文提出了一种新的数据驱动方法 CLSP,用于减少 PLL 样本的候选标签集大小。该方法基于表示空间中最近邻样本的“投票”机制来识别潜在的错误标签。理论分析表明,表示质量和标签歧义对剪枝误差的上界有显著影响。实验结果表明,CLSP 方法能够显著提高现有深度 PLL 方法的性能,尤其是在现实世界的数据集上。

    参考文献

    • Cour, T., Sapp, B., and Taskar, B. (2011). Learning from partial labels. Journal of Machine Learning Research, 12, 1501-1536.
    • Feng, L., Wang, C., Li, B., and Yang, G. (2020). Deep partial label learning with label disambiguation. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 4678-4685.
    • He, S., Wang, C., Yang, G., and Feng, L. (2022). Towards robust deep partial label learning with noisy candidate label sets. Proceedings of the AAAI Conference on Artificial Intelligence, 36, 11489-11497.
    • Hong, J., Wang, C., Yang, G., and Feng, L. (2023). Towards robust deep partial label learning with long-tailed data distributions. Proceedings of the AAAI Conference on Artificial Intelligence, 37, 12587-12596.
    • Johnson, J., Douze, M., Jégou, H., and others. (2019). Faiss: A library for efficient similarity search and clustering of dense vectors. Proceedings of the 31st International Conference on Neural Information Processing Systems, 7313-7323.
    • Li, B., Wang, C., Yang, G., and Feng, L. (2023a). LAVIS: A library for language-and-vision intelligence. arXiv preprint arXiv:2304.05403.
    • Li, J., Li, H., Gao, T., et al. (2023b). BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders. arXiv preprint arXiv:2301.12546.
    • Li, X., Li, J., Yuan, L., et al. (2021). Aligning Books and Movies: Towards Unified Language-Vision Understanding with Contrastive Learning. arXiv preprint arXiv:2105.13240.
    • Lv, J., Wang, C., Feng, L., and Yang, G. (2020). Progressive purification for deep partial label learning. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 4686-4693.
    • Radford, A., Kim, J. W., Hallacy, C., et al. (2021). Learning Transferable Visual Models From Natural Language Supervision. arXiv preprint arXiv:2103.00020.
    • Sener, O. and Savarese, S. (2018). Active learning for convolutional neural networks: A core-set approach. Proceedings of the 32nd International Conference on Machine Learning, 4898-4907.
    • Toneva, M., Gordon, A., Shlens, J., et al. (2018). An Empirical Study of Example Forgetting During Deep Neural Network Training. arXiv preprint arXiv:1806.07683.
    • Wang, C., Feng, L., Yang, G., et al. (2022a). Long-tailed Deep Partial Label Learning. arXiv preprint arXiv:2205.14887.
    • Wang, C., Feng, L., Yang, G., and Li, B. (2022b). Deep partial label learning with class prototypes. Proceedings of the AAAI Conference on Artificial Intelligence, 36, 10595-10603.
    • Wang, C., Feng, L., Yang, G., et al. (2024). Towards robust deep partial label learning with noisy candidate label sets. Proceedings of the AAAI Conference on Artificial Intelligence, 38, 10073-10082.
    • Wen, Y., Wang, C., Yang, G., et al. (2021). Deep Partial Label Learning with Label Consistency Regularization. arXiv preprint arXiv:2104.00463.
    • Wu, Q., Wang, C., Yang, G., et al. (2022). Towards Robust Deep Partial Label Learning with Label Consistency Regularization. Proceedings of the AAAI Conference on Artificial Intelligence, 36, 10493-10501.
    • Wu, Q., Wang, C., Yang, G., et al. (2022). Towards Robust Deep Partial Label Learning with Label Consistency Regularization. Proceedings of the AAAI Conference on Artificial Intelligence, 36, 10493-10501.
    • Xu, C., Wang, C., Yang, G., et al. (2021). Deep Partial Label Learning with Instance-Dependent Candidate Label Sets. arXiv preprint arXiv:2104.00463.
    • Xu, C., Wang, C., Yang, G., et al. (2023a). Deep Partial Label Learning with Noisy Candidate Label Sets. arXiv preprint arXiv:2304.00463.
    • Xu, C., Wang, C., Yang, G., and Feng, L. (2023b). Progressive label purification for deep partial-label learning. Proceedings of the AAAI Conference on Artificial Intelligence, 37, 12630-12639.
    • Yan, Y. and Guo, Y. (2023a). Robust Deep Partial Label Learning with Noisy Candidate Label Sets. arXiv preprint arXiv:2304.00463.
    • Yan, Y. and Guo, Y. (2023b). Towards Robust Deep Partial Label Learning with Noisy Candidate Label Sets. arXiv preprint arXiv:2304.00463.
    • Zeng, Z., Chen, X., Lin, Z., et al. (2013). Learning with Partial Labels for Image Tagging. arXiv preprint arXiv:1305.2093.
    • Zhang, M. and Yu, P. S. (2015). Partial label learning via matrix completion. Proceedings of the 32nd International Conference on Machine Learning, 127-136.
    • Zhang, M., Yu, P. S., and others. (2016). Learning from incomplete and noisy labels. Proceedings of the 33rd International Conference on Machine Learning, 1707-1715.
    • Zhang, Y., Wang, C., Yang, G., et al. (2022). Deep Partial Label Learning with Class Activation Value. arXiv preprint arXiv:2204.00463.
    • Zhao, J., Liu, Z., Wang, M., et al. (2021). Gradient-Based Data Pruning for Efficient Deep Learning. arXiv preprint arXiv:2102.06801.
    • Zhou, Z. H. (2018). A brief introduction to weakly supervised learning. National Science Review, 5, 44-53.
    • Zhu, X., Li, Z., Gong, M., et al. (2022). Clusterability: A New Perspective for Deep Representation Learning. arXiv preprint arXiv:2203.01077.
人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 借一步网
Page Stats: PV: 1 | UV: 1
Last updated: 2025-07-07 20:18:20
沪ICP备2024052574号-1