- Contrastive Learningにラベル情報を用いる教師ありCLを提案したよ
- 教師ありCLで用いる損失関数はSupCon(=Supervised Contrastive)という名前だよ
- 教師ありCLがクロスエントロピー損失を用いた通常の教師あり学習よりも高い性能を示したよ
- ImageNet/CIFAR-10/CIFAR-100の画像分類タスクでより高い分類精度を示したよ
- ハイパーパラメーター(e.g. 学習率)への高い安定性も示したよ
- ImageNet-Cへのロバスト性もより良いよ
温度つきsoftmax(https://qiita.com/nkriskeeic/items/db3b4b5e835e63a7f243)
- 自己教師あり学習の最新トレンドはContrastive Learningだよ
- Contrastive Learningでは、「似ているデータは潜在空間でも似た埋め込みベクトルになり、異なるデータは潜在空間でも異なる埋め込みベクトルになる」ということを学習させるよ
- Contrastive Learningのアーキテクチャは次の4つに分かれるよ
- End-to-End
- メモリーバンク
- モーメンタムエンコーダー
- クラスタリング
- 自己教師あり学習は、画像分類では教師あり学習にほぼ追いつき、物体検出への転移は教師あり学習よりも良いよ
infoNCE Loss: Contrastive Learningで一番有名なLoss
pytorch実装
info nce lossを使用している
同じclassは無視
https://github.com/sthalles/SimCLR
pytorch実装
同じclassも考慮してしている
https://github.com/HobbitLong/SupContrast?tab=readme-ov-file
contrastiveになっているかの確認などに使える?
https://qiita.com/tomp/items/19e00c835975eaf20f94