Datawhale X 李宏毅苹果书AI夏令营
谈谈我对task2文档的理解,和总结
task2主要讲的是分类问题的基本概念及相关技术,包括分类与回归的关系、带有Softmax的分类、分类损失等内容。
如果用简单的描述各特点的话,我觉得是
回归:模型的目标是使预测值 y^尽可能接近真实值y
分类:可以视为一种特殊的回归问题,目标是让预测值y^尽可能接近类别编号(如类1对应1,类2对应2)。但用数字直接表示类在某些情况下可能会有问题,因为类别之间可能没有线性关系,这时可以用独热向量表示类别。
在带有Softmax的分类中在分类模型中,通常将输出y^通过Softmax函数,得到归一化后的预测值y1此时y1为独热向量的概率分布。
Softmax的作用:将输出值归一化到0和1之间,并且保证所有类别的概率和为1。它还会放大不同类别之间的概率差异,使得模型在训练时更加容易收敛。
分类损失
均方误差:适用于回归问题,但在分类问题中,它在损失大的情况下,梯度较小,优化困难。
交叉熵:更适合分类问题。它不仅可以最小化预测和真实标签之间的误差,还能最大化似然,从而优化模型的参数。相比均方误差,交叉熵在初始阶段具有更好的梯度信息,使得优化过程更顺畅。
qz其中Softmax和交叉熵的作用对于构建高效的分类模型至关重要。Softmax不仅能归一化输出值,还能放大类别之间的差异,而交叉熵则通过更好的梯度信息,使得模型在优化时更容易收敛。