首页 > 其他 > 详细

深度学习中常见的激活函数

时间:2019-10-17 14:23:24      阅读:217      评论:0      收藏:0      [点我收藏+]

  上一篇文章介绍了激活函数的作用,就想一并整理一下深度学习领域中常见的激活函数。在深度学习中,常见的激活函数有三种:sigmoid函数,tanh函数,ReLU函数,下面分别进行介绍。

  1.sigmoid函数(S型增长函数)

  sigmoid函数能够将取值为$(-\infty,+\infty)$的数映射到$(0,1)$。公式和图形如下:$$S(x)=\frac{1}{1+e^{-z}}$$技术分享图片

  sigmoid函数作为非线性激活函数却不被经常使用,具有以下几个缺点:

  1.当x非常大或者非常小的时候,sigmoid函数的导数将接近0,这会导致权重的梯度接近于0,使得梯度更新非常缓慢,即梯度消失。

  2.函数的输出不是以0为均值,将不便于下层的计算。

  总之:sigmoid函数可用在网络的最后一层,作为输出层进行二分类,尽量不要使用在隐藏层。

  

  2.tanh函数(双曲正切函数)

  比sigmoid函数常见,将取值为$(-\infty,+\infty)$的数映射到$(-1,1)$。公式和图形如下:$$\tanh(x)=\frac{e^z-e^{-z}}{e^z+e^{-z}}$$技术分享图片

 

   tanh函数在0附近很短一段区域可以看作是线性的。由于tanh函数均值为0,弥补了sigmoid函数的缺点。

  tanh函数的缺点和sigmoid函数一样,当x很大或者很小的时候,会导致梯度很小,权重更新缓慢,即梯度消失问题。

  

  3.ReLU函数(修正线性单元)

  ReLU是一种分段线性函数,弥补了sigmoid和tanh函数的梯度消失问题。公式和图形如下:$$ReLU(x)=\begin{cases} 1, & \text {if $z>0$ } \\ 0, & \text{if $z<0$} \end{cases}$$

深度学习中常见的激活函数

原文:https://www.cnblogs.com/chester-cs/p/11691509.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!