当我们把 Dice Loss 和 Cross-Entropy 拧成一股绳:脑肿瘤分割中的联合损失函数实战
章节定位:第二章「迁移学习架构设计与模型优化」→ 2.4.1 节
核心命题:为什么单一损失函数在脑肿瘤分割中总是"顾此失彼"?我们如何把两种看似矛盾的优化目标拧成一股绳?
0. 从一个黑盒问题开始
想象你拿到一个训练好的脑肿瘤分割模型。输入是一张 MRI 切片,输出是一张黑白掩膜——白色是肿瘤,黑色是正常组织。从外部看,这只是一个「图片进、掩膜出」的黑盒子。
但如果我们打开这个黑盒,往训练阶段回溯,会发现一个让人头疼的岔路口:模型到底在优化什么?
在普通的图像分类任务里,答案很简单——交叉熵(Cross-Entropy)就够了。但在脑肿瘤分割里,肿瘤区域往往只占整张 MRI 切片的1% 到 5%[14]。如果我们只用交叉熵,模型会变成一个「懒惰的学生」:它只要把 99% 的像素预测成"背景",就能轻松拿到很高的准确率,却完全忽略了那 1% 的肿瘤区域。
别急。如果我们换一种损失函数——比如 Dice Loss——它专门衡量预测掩膜和真实掩膜的重叠程度,对类别不平衡不那么敏感。但 Dice Loss 也有自己的脾气:它的梯度在训练初期非常不稳定,优化起来像走在结冰的路面上[11]。
<