交叉熵损失:机器学习中常用的损失函数,用来衡量模型预测的概率分布与真实标签分布之间的差异;在分类任务里常表现为对“真实类别概率”的惩罚(预测越偏离真实类别,损失越大)。也常被称为 log loss(对数损失) 或与 负对数似然密切相关。
/ˌkrɔːs ˈɛntrəpi lɔːs/
The model achieved a low cross-entropy loss after training.
训练后,模型的交叉熵损失变得很低。
To stabilize training, we minimized cross-entropy loss with softmax outputs and used regularization to reduce overfitting.
为稳定训练,我们对 softmax 输出最小化交叉熵损失,并使用正则化来减少过拟合。
cross-entropy 来自信息论术语:entropy(熵) 表示不确定性;在比较两个概率分布时,交叉熵用于度量“用一个分布去编码另一个分布”所需的平均信息量。loss 在机器学习里指训练时要最小化的目标值,因此 cross-entropy loss 就是“以交叉熵作为训练目标的损失函数”。