前言:Hello大家好,我是小哥谈。KNN,即K最邻近算法,是数据挖掘分类技术中比较简单的方法之一,简单来说,就是根据“最邻近”这一特征对样本进行分类。🌈
目录
🚀1.K-means和KNN区别
🚀2.KNN的算法思想
🚀3.算法步骤
🚀4.KNN算法的优缺点
🚀5.数据集
🚀6.代码实现
🚀7.结果
🚀1.K-means和KNN区别
K-means是一种比较经典的聚类算法,本质上是无监督学习,而KNN是分类(或回归)算法,是监督学习。✅
K-means算法的训练过程需要反复迭代的操作(寻找新的质心),但是KNN不需要。K-means中的 K 代表的是簇中心,KNN的 K 代表的是选择与新测试样本距离最近的前K个训练样本数。🌳
🚀2.KNN的算法思想
KNN(k-NearestNeighbor)又被称为近邻算法,它的核心思想是:物以类聚,人以群分。✅
假设一个未知样本数据x需要归类,总共有ABC三个类别,那么离x距离最近的有k个邻居,这k个邻居里有k1个邻居属于A类,k2个邻居属于B类,k3个邻居属于C类,如果k1>k2>k3,那么x就属于A类,也就是说x的类别完全由邻居来推断出来。🌳
🚀3.算法步骤
🍀(1)计算测试对象到训练集中每个对象的距离
🍀(2)按照距离的远近排序
🍀(3)选取与当前测试对象最近的K的训练对象,作为该测试对象的邻居。
🍀(4)统计这K个邻居的类别概率
🍀(5)K个邻居里频率最高的类别,即为测试对象的类别。
🚀4.KNN算法的优缺点
优点:非常简单的分类算法没有之一,人性化,易于理解,易于实现,适合处理多分类问题,比如推荐用户。
缺点:属于懒惰算法,时间复杂度较高,因为需要计算未知样本到所有已知样本的距离,样本平衡度依赖高,当出现极端情况样本不平衡时,分类绝对会出现偏差。可解释性差,无法给出类似决策树那样的规则。向量的维度越高,欧式距离的区分能力就越弱。
🚀5.数据集
名称:Prostate_Cancer
提取链接:https://pan.baidu.com/s/1xv8r54qaLpH8RiMRkcrzyA 提取码:66hg
数据集展示:
🚀6.代码实现
from sklearn.neighbors import KNeighborsClassifier
import numpy as np
import random
import pandas as pd
def knn():
K = 8
data=pd.read_csv(r"C:\Users\Lenovo\Desktop\course\Prostate_Cancer.csv")
n = len(data) // 3
test_set = data[0:n]
train_set = data[n:]
train_set = np.array(train_set)
test_set = np.array(test_set)
A = [i for i in range(0, len(train_set))]
B = [i for i in range(2, 10)]
C = [i for i in range(n)]
D = [1]
x_train = train_set[A]
x_train = x_train[:, B]
y_train = train_set[A]
y_train = y_train[:, D]
x_test = test_set[C]
x_test = x_test[:, B]
y_test = test_set[C]
y_test = y_test[:, D]
# 训练模型
model = KNeighborsClassifier(n_neighbors=K)
model.fit(x_train, y_train)
score = model.score(x_test, y_test)
print("准确率为:", score)
if __name__=='__main__':
knn()
🚀7.结果
当k=8时候,结果为0.7575757575757576
当k=5时候,结果为0.8181818181818182
总结:♨️♨️♨️
KNN是一种快速高效的分类算法,其逻辑简单,易于理解。但当训练数据集很大时,需要大量的存储空间,而且需要计算训练样本和测试样本的距离,计算量较大。个人认为,这是由于KNN是一种懒惰的学习法,简单的认为“物以类聚,人以群分”,但实际上,无论是人际交往还是数据事实,可能并不完全符合这个逻辑