首页 > 移动平台 > 详细

[CS231n-CNN] Image classification and the data-driven approach, k-nearest neighbor, Linear classification I

时间:2016-03-27 17:59:17      阅读:226      评论:0      收藏:0      [点我收藏+]

课程主页:http://cs231n.stanford.edu/

Task:

技术分享

Challenges:

技术分享技术分享技术分享技术分享技术分享技术分享


____________________________________________________________________________________________________________________________________________________________________________________

Data-driven approach:

技术分享

____________________________________________________________________________________________________________________________________________________________________________________

-采用最简单的分类器:knn

*distance的定义:

技术分享

当然,这里才用的L1 (Manhattan) distance,当然也可以采用 L2 (Euclidean) distance。

*如何确定k的值?

技术分享

将数据分为6份,其中1份作为测试集。剩下的5份中,4份作为训练集,1份作为评估集(用以得到最佳的k值)[5折交叉验证]。

-缺陷:

技术分享

____________________________________________________________________________________________________________________________________________________________________________________

-采用线性分类器:Linear Classification

技术分享

技术分享

输入一个image和若干个参数(每一类都会有一组属于自己的参数即w和b),返回这个image属于每一类的score。

我们希望的是:如果一张图是猫,那么将这张图输入到cat()里面算出来score应该为最高,其他的类别都很低。

技术分享

技术分享

 

技术分享

 

技术分享

*缺陷:

如果是grey picture的话,效果会很差。

技术分享

从这个实验我们以发现,

第一张图,实际是一只猫,但是算出它是猫的score一般,所以我们认为对于这张图而言,w并不理想。

第二张图,实际是一辆车,算出它是车的score最高,所以我们认为对于这张图而言,w很理想。

第三张图,实际是一只青蛙,算出它是青蛙的score相对很低,所以我们认为对于这张图而言,w很不理想。

*引出loss function,用于量化结果是否理想(程度)。

好处:如果你的loss function的值很高,说明w不理想,所以需要调整。通过这种方式,可以帮助我们找到一组w,能够对于test dataset中的每一张照片都有一个相对理想的结果。

技术分享

 

 

 

[CS231n-CNN] Image classification and the data-driven approach, k-nearest neighbor, Linear classification I

原文:http://www.cnblogs.com/XBWer/p/5326220.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!