首页 > 其他 > 详细

tensorflow函数介绍(3)

时间:2018-02-18 21:18:13      阅读:207      评论:0      收藏:0      [点我收藏+]
tf.nn.softmax_cross_entropy_with_logits(logits,labels)      #其中logits为神经网络最后一层输出,labels为实际的标签,该函数返回经过softmax转换之后并与实际值相比较得到的交叉熵损失函数的值,该函数返回向量

例:

import tensorflow as tf
logits=tf.constant([[1.0,2.0,3.0],[1.0,2.0,3.0],[1.0,2.0,3.0]])  
y=tf.nn.softmax(logits)      #计算给定输入的softmax值
y_=tf.constant([[0.0,0.0,1.0],[0.0,0.0,1.0],[0.0,0.0,1.0]])  
cross_entropy = -tf.reduce_sum(y_*tf.log(y))   #计算交叉熵损失函数的值,返回向量,并通过tf.reduce_sum来计算均值
cross_entropy2=tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=y_))    #直接计算交叉熵损失函数值
init=tf.global_variables_initializer()
sess=tf.Session()
sess.run(init)
print(sess.run(y))
print(sess.run(cross_entropy))    #输出结果和下面的一致
print(sess.run(cross_entropy2))

 

tensorflow函数介绍(3)

原文:https://www.cnblogs.com/xiaochouk/p/8453193.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!