OOD

Out-of-Distribution Detection

Test-Time Adaptation (TTA)

TTA updates the model with the unlabeled test data at test time.

可用方法如下:

  • BN Adapt
    • Batch Normalization 层会在训练时记录均值和方差(moving average)。在测试时,这些统计信息可以动态更新为当前测试数据的均值和方差。
    • 用当前测试数据的均值和方差替换训练阶段的统计信息。
  • 伪标签生成
    • 仅保留预测置信度较高的样本。
    • 利用伪标签数据对模型进行一次微调。
  • 最小熵优化 (Entropy Minimization)
    • 测试阶段通过最小化模型输出的预测熵,使得模型对测试样本的预测更自信、更稳定。

Transductive learning (TL)

Models are trained jointly on both the train and test data (without testing labels).

通过约束模型对测试数据的输出,提升泛化能力。可用方法如下:

  • Pseudo-Labeling(伪标签生成)
  • Consistency Regularization(一致性正则化)
    • 对测试数据的预测在不同增强(如图像变换、噪声添加)下应保持一致。这是一种无监督的方式,用于强制模型对输入的不同变体生成相同的输出。
  • Graph-Based Learning(图学习)
    • 将训练和测试数据建模为图结构,基于数据间的相似性传播标签信息。
    • 利用训练数据的标签,推断测试数据的伪标签。
  • Entropy Minimization(熵最小化)
    • 对测试数据的无监督优化:最小化模型输出的预测熵,让模型对测试数据的预测更自信。

OOD scores

In general, OOD detection involves using continuous OOD scores to identify instances not belonging to these labels by setting a threshold below which they are rejected.

  • MSP
  • Energy-based model (EBM)
  • Kullback-Leibler (KL) divergence
  • ODIN



    Enjoy Reading This Article?

    Here are some more articles you might like to read next:

  • Terminal Command
  • Computer Environment
  • NeRF
  • 3DGS
  • SDS