损失函数/成本函数
--------------------------------
最优化的输出是那些“损失函数值”最小的输出
常用的损失函数有2个:(1)均方差函数(就是标准差)(2)交叉熵函数
1、均方差函数
观测值与实际值之差的平方的均值,与中小学的标准差有所区别
2、交叉熵函数
交叉熵(Cross Entropy)概念源自信息论
用于度量2个概率分布的差异
以交叉熵作为损失函数的好处:避免梯度消散
TensorFlow中的交叉熵函数有:
(1)sigmoid交叉熵函数:tf.nn.sigmoid_cross_entrop_with_logits(logits,labels,name=None)
(2)softmax交叉熵函数:tf.nn.softmax_cross_entrop_with_logits(logits,labels,name=None)
(3)sparse交叉熵函数:tf.nn.sparse_softmax_cross_entrop_with_logits(logits,labels,name=None)
(4)加权sigmoid交叉熵函数:tf.nn.weight_cross_entrop_with_logits(logits,labels,name=None)
其中,
labels:表示的训练数据的label信息 logits :表示的是模型计算出来的结果 计算的交叉熵就是logits和labels的交叉熵
|