当前位置: 首页 > news >正文

愿遗忘与你同在:使用 Noisy Labels 学习的替代重播

读论文《May the Forgetting Be with You: Alternate Replay for Learning with Noisy Labels》

论文地址:https://arxiv.org/pdf/2408.14284v1.pdf

项目地址:github

论文主要研究了在存在噪声标签的情况下,如何改进持续学习(Continual Learning, CL)的性能。作者们指出,在现实世界的应用中,由于时间限制或数据自动收集等原因,标签噪声是一个常见问题,这使得现有的基于重放(Replay)的持续学习策略容易受到影响。

在 Seq 的第二个任务期间训练 loss of clean and noisy。

论文的主要贡献包括:

1.Alternate Experience Replay (AER): 提出了一种新的持续学习优化方案,通过交替进行缓冲区学习(buffer learning)和缓冲区遗忘(buffer forgetting)的步骤,来鼓励在缓冲区中分离干净样本和噪声样本。这种方法利用了遗忘机制来识别数据流中的噪声样本。

2.Asymmetric Balanced Sampling (ABS): 提出了一种新的样本选择策略,旨在优先选择当前任务的纯净样本,同时保留过去的相关样本。这种策略通过非对称分数来区分缓冲区中的样本是属于当前任务还是过去的任务,并据此进行样本的选择和替换。

3.实验验证: 通过大量的计算比较,证明了所提出方法在准确性和获得的缓冲区纯度方面的有效性。与现有的基于损失的净化策略相比,平均准确度提高了4.71%。

具体方法的详细描述如下:

  • 问题设置:定义持续学习框架为从一系列 T 个任务中学习的过程。在每个任务 t 中,输入样本 Xt 和它们的注释 Yt 是从独立同分布 Dt 中抽取的。作者遵循类增量场景,即 Yt-1 与 Yt 没有交集,并且学习者 fθ 需要区分所有观察到的类别。

  • Alternate Experience Replay (AER)

    • 缓冲区学习:在此阶段,模型使用标准重放进行训练,不修改存储在内存缓冲区 M 中的样本。
    • 缓冲区遗忘:在此阶段,省略对内存缓冲区的正则化,专注于训练 Dt 中的数据。通过停止正则化和随后的缓冲区数据点的遗忘,噪声样本的损失更可能迅速增加。
  • Asymmetric Balanced Sampling (ABS)

    • 样本插入:给定当前任务的数据批次 B,首先确定哪些样本应该被包含在缓冲区中。利用记忆效应,使用损失值的阈值标准。
    • 样本选择:通过定义在缓冲区 M 中所有样本上的一个概率分布 p(x) 来进行选择过程。使用损失函数给出的分数 s(x) 来建模这个分布,并根据样本来自当前任务还是过去任务来采用非对称分数。
  • 缓冲区巩固:在每个任务结束时,使用 MixMatch 方法来增强模型的鲁棒性,将不确定样本作为未标记数据使用。


http://www.mrgr.cn/news/13175.html

相关文章:

  • 基于SSM+小程序的旅游社交登录管理系统(旅游4)(源码+sql脚本+视频导入教程+文档)
  • 【开端】 进行页面升级或维护时不影响用户体验NGINX配置
  • 常量指针与指针常量
  • 【深入解析】最优控制中的Bellman方程——从决策到最优路径的探索
  • Qt_两种创建组件的方式-通过图形化-通过代码
  • [HZNUCTF 2023 preliminary]flask
  • Linux -- git
  • C++ | Leetcode C++题解之第377题组合总和IV
  • Web3常见概念
  • ip命令简解
  • docker容器基本命令、docker进入容器的指令、容器的备份、镜像底层原理、使用commit命令制造镜像、将镜像推送到阿里云镜像仓库与私服仓库
  • 【Go - interface, 强类型语言中的任意类型 】
  • 如何设置代理ip地址怎么使用ip代理上网
  • 自动查询获取实时返回值 JavaScript JQuery on(),change(),trigger()
  • MVC结构是什么?怎么运用MVC结构?
  • 【前端储存】之localStrage、sessionStrage和Vuex
  • 数论经典问题——约数之和
  • 超分中的GAN总结:常用的判别器类型和GAN loss类型
  • 【Linux篇】环境变量
  • Android Audio音量——硬按键调节音量(七)