TensorFlow两种方式计算Cross Entropy

sparse_softmax_cross_entropy_with_logitssoftmax_cross_entropy_with_logits文章来源地址https://www.yii666.com/article/758100.html文章地址https://www.yii666.com/article/758100.html文章来源地址:https://www.yii666.com/article/758100.html

import tensorflow as tf

y=tf.constant([[0.1,0.8,0.2]])
y_=tf.constant([[0,1,0]]) cross_entropy1 = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.argmax(y_, 1))
cross_entropy2 = tf.nn.softmax_cross_entropy_with_logits(logits=y, labels=y_) with tf.Session() as sess:
tf.global_variables_initializer().run()
print(sess.run(cross_entropy1))
print(sess.run(cross_entropy2))

[ 0.71559191]
[ 0.71559191]网址:yii666.com<

可以看出,softmax_cross_entropy_with_logits第二个参数传入的参数是原数组,而sparse_softmax_cross_entropy_with_logits传入的是原数组中为1的索引位置。网址:yii666.com

版权声明:本文内容来源于网络,版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。文本页已经标记具体来源原文地址,请点击原文查看来源网址,站内文章以及资源内容站长不承诺其正确性,如侵犯了您的权益,请联系站长如有侵权请联系站长,将立刻删除

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信图片_20190322181744_03.jpg

微信扫一扫打赏

请作者喝杯咖啡吧~

支付宝扫一扫领取红包,优惠每天领

二维码1

zhifubaohongbao.png

二维码2

zhifubaohongbao2.png