简称KNN,讲人话就是在现有历史资料的基础上,对於想预测的新资料,直接比对特徵最接近的K笔历史资料,看他们分别属於哪种分类,再以投票的方式决定新资料的所属分类。
最近邻居法是监督式学习中的分类演算法,能用一句话代表大概就是物以类聚了吧!举个例子来说,假设你的邻居朋友里面,十个有八个都是单身狗,那你也很有可能也是单身狗,差不多是这个概念,再来说明此演算法的步骤:
(一)计算距离
(二)进行投票
(三)决定类别
计算距离的方式有三种:
(一)欧基里德距离 (Euclidean distance)
(二)曼哈顿距离 (Manhattan distance)
(三)明氏距离 (Minkowski distance)
KNN的优点:
1.易理解
2.用途广
KNN的缺点:
1.计算量大
2.样本数不平均时,易产生误差
T检定: 什麽时候会用到T检定呢? 当我们不知道母体变异数为多少时就是用T检定 T检定的公式为: (...
昨天介绍了component,也知道要使用component要先注册才能使用,而今天我们要介绍的是p...
什麽是 Web Notifications API? 透过 Web Notifications AP...
现在要来处理上一篇文章的红框部分,输入N个np.arange让他跑for loop。今天在网路上看了...
LED 显示温湿度 ( DHT11 ) 教学原文参考:LED 显示温湿度 ( DHT11 ) 这篇文...