首页 > 其他 > 详细

吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)

时间:2019-02-21 01:06:04      阅读:225      评论:0      收藏:0      [点我收藏+]

  从本质上讲,神经网络能够通过学习得出其自身的一系列特征。在普通的逻辑回归中,
我们被限制为使用数据中的原始特征??1, ??2, . . . , ????,我们虽然可以使用一些二项式项来组合
这些特征,但是我们仍然受到这些原始特征的限制。在神经网络中,原始特征只是输入层,
在我们上面三层的神经网络例子中,第三层也就是输出层做出的预测利用的是第二层的特
征,而非输入层中的原始特征,我们可以认为第二层中的特征是神经网络通过学习后自己得
出的一系列用于预测输出变量的新特征。
  神经网络中,单层神经元(无中间层)的计算可用来表示逻辑运算,比如逻辑与(AND)、
逻辑或(OR)。
  举例说明:逻辑与(AND);下图中左半部分是神经网络的设计与output 层表达式,右边
上部分是sigmod 函数,下半部分是真值表。
我们可以用这样的一个神经网络表示AND 函数:

技术分享图片

  其中??0 = ?30, ??1 = 20, ??2 = 20 我们的输出函数??? (??)即为:???(??) = ??(?30 + 20??1 +
20??2)
我们知道??(??)的图像是:

技术分享图片

技术分享图片

所以我们有:???(??) ≈ x1AND x2
所以我们的:
这就是AND 函数。
接下来再介绍一个OR 函数:

技术分享图片

OR 与AND 整体一样,区别只在于的取值不同。

吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)

原文:https://www.cnblogs.com/sl0309/p/10410058.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!