写在前面:一个被忽视的真相
在目标检测领域深耕的朋友应该都有这种体会:模型在验证集上的mAP节节攀升,一到真实场景就翻车。遮挡、光照变化、小目标、复杂背景——这些训练集里“看不到”的情况,往往让精心调优的模型在部署后原形毕露。
笔者最近在一个工业缺陷检测项目上栽了跟头:YOLO11n在验证集上mAP@0.5达到0.87,部署到产线后却频频漏检。复盘发现,训练样本中的缺陷区域几乎都位于图像中央且完整可见,而实际产线上缺陷可能出现在边缘、被遮挡、或者只有局部可见。模型学会了走捷径——只关注最“显著”的特征区域,对非显著区域视而不见。
这个问题本质上指向同一个根因:模型过度依赖显著性区域特征,缺乏对全局信息的鲁棒理解。而解决方案也出奇地简单——让模型“看不见”那些它习惯依赖的区域,强迫它去挖掘那些被忽略的角落。
这就是GridMask信息删除策略能够带来的质变。
根据Albumentations官方文档的基准测试数据,GridMask在ImageNet分类任务上为ResNet50带来**+1.4%的提升,在COCO目标检测任务上为FasterRCNN-50-FPN带来+1.8%的提升,在Cityscapes分割任务上为PSPNet50带来+0.8%**的提升,且计算开销远低于AutoAugment。这些数字背后反映的是一个被反复验证的规律:信息删除型数据增强,是提升模型泛化能力最具性价比的手段之