本文做个简单总结,博主不是做自监督领域的,如果错误,欢迎指正。
链接
Code:
Official:baaivision/EVA
MMpretrain:open-mmlab/mmpretrain/tree/main/configs/eva02
Paper:
EVA01:EVA: Exploring the Limits of Masked Visual Representation Learning at Scale
EVA02:EVA-02: A Visual Representation for Neon Genesis
EVA01
成就:
EVA 是第一个开源的十亿级视觉基础模型,在广泛的下游任务上实现了最先进的性能。
改进:
-  EVA是基于CLIP的预训练,而不是MIM预训练。 -  MIM(Masked Image Modeling)预训练,即MAE做的事情,随机mask掉图片中一部分,生成原图。 -  缺点:MIM预训练只包含底层细节信息,没有高层语义信息。 
 
-  
-  CLIP预训练,用“图像-文本”进行对比学习训练, -  使用场景:根据文本搜索相关图片,根据图片生成相关描述。 
-  优点:文本补充了MIM缺乏的高层语义信息,CLIP预训练细节和语义信息都有。CLIP预训练中的高层语义信息能够给下游任务提供更大的帮助。 
 
-  
 
-  
-  EVA 不需要昂贵的监督训练阶段,仅利用来自开源数据集的图像就可以。 
-  EVA 的迁移学习性能强。 
-  EVA 可以充当以视觉为中心的多模态支点 
EVA02
成就:
        
-  使用可公开访问的训练数据,仅具有 304M 参数的 EVA-02 在 ImageNet-1K 验证集上实现了惊人的 90.0 微调 top-1 精度。 
-  EVA-02-CLIP 在 ImageNet-1K 上可以达到高达 80.4 的零样本 top-1,优于之前最大、最好的开源 CLIP,仅需要约 1/6 的参数和约 1/6 的图像文本训练数据。 
改进:
        
-  EVA02对原始ViT改进了结构(借鉴NLP上的一些改进Tricks) 
-  EVA V1使用CLIP模型的视觉Encoder作为Teacher,EVA V2使用EVA-CLIP作为Teacher。EVA-CLIP 与之前的 CLIP 模型相比性能更强大,参数数量相同,但训练成本显著降低 
-  EVA V2使用了更多的数据,多个开源公开的数据集合并到一起组成 Merged-38M,累计3800万张图片。 
-  训练分为多阶段, -  在Merged-38M上进行MIM预训练, 
-  在ImageNet21K上进行finetuning, 
-  在ImageNet1K上做最后的finetuning。 
-  EVA V2还支持微调多项下游任务,如目标检测,语义分割、实例分割等。 
 
-  











