首页 > 其他 > 详细

softplus-平滑版relu学习

时间:2021-01-25 14:14:36      阅读:77      评论:0      收藏:0      [点我收藏+]

1.tf.nn.softplus 

 https://blog.csdn.net/ai_lx/article/details/88953587

import tensorflow as tf

a = tf.constant([-1.0, 12.0])
with tf.Session() as sess:
    b = tf.nn.softplus(a)
    print(sess.run(b))

#输出
[ 0.31326166 12.000006  ]

就是soft plus。#不是softmax,不是归一化。

公式是:log( exp( features ) + 1),所输入的a就是features。

2.性质

https://blog.csdn.net/bqw18744018044/article/details/81193241

技术分享图片

技术分享图片

 

softplus-平滑版relu学习

原文:https://www.cnblogs.com/BlueBlueSea/p/14324671.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!