首页 > 其他 > 详细

[ML] {ud120} Lesson 4: Decision Trees

时间:2019-06-07 12:17:51      阅读:80      评论:0      收藏:0      [点我收藏+]

Linearly Separable Data

 

 技术分享图片

 

 

 

 Multiple Linear Questions

 技术分享图片

 

 

 

 

 

 

Constructing a Decision Tree First Split 

 技术分享图片

 

 

 

 Coding A Decision Tree

 技术分享图片

技术分享图片

 

 

 

 技术分享图片

技术分享图片

 

 

 

 

 Decision Tree Parameters

技术分享图片

技术分享图片

 

 

 

 

 Data Impurity and Entropy

 技术分享图片

 

 

 

 Formula of Entropy

 技术分享图片

技术分享图片

技术分享图片 

There is an error in the formula in the entropy written on this slide. There should be a negative (-) sign preceding the sum:

Entropy = - \sum_i (p_i) \log_2 (p_i)i?(pi?)log2?(pi?)

 

 

 

技术分享图片

技术分享图片

技术分享图片

技术分享图片

 

 技术分享图片

技术分享图片

IG = 1

 

 

 

 Tuning Criterion Parameter

 技术分享图片

gini is another measurement of purity

 

 

 

Decision Tree Mini-Project

 

In this project, we will again try to identify the authors in a body of emails, this time using a decision tree. The starter code is in decision_tree/dt_author_id.py.

Get the data for this mini project from here.

Once again, you‘ll do the mini-project on your own computer and enter your answers in the web browser. You can find the instructions for the decision tree mini-project here.

 

[ML] {ud120} Lesson 4: Decision Trees

原文:https://www.cnblogs.com/ecoflex/p/10987754.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!