前言:Hello大家好,我是小哥谈。KNN,即K最邻近算法,是数据挖掘分类技术中比较简单的方法之一,简单来说,就是根据“最邻近”这一特征对样本进行分类。🌈

   目录

🚀1.K-means和KNN区别

🚀2.KNN的算法思想

🚀3.算法步骤

🚀4.KNN算法的优缺点

🚀5.数据集

🚀6.代码实现

🚀7.结果

🚀1.K-means和KNN区别

K-means是一种比较经典的聚类算法,本质上是无监督学习,而KNN是分类(或回归)算法,是监督学习。✅

K-means算法的训练过程需要反复迭代的操作(寻找新的质心),但是KNN不需要。K-means中的 K 代表的是簇中心,KNN的 K 代表的是选择与新测试样本距离最近的前K个训练样本数。🌳


🚀2.KNN的算法思想

KNN(k-NearestNeighbor)又被称为近邻算法,它的核心思想是:物以类聚,人以群分。✅

假设一个未知样本数据x需要归类,总共有ABC三个类别,那么离x距离最近的有k个邻居,这k个邻居里有k1个邻居属于A类,k2个邻居属于B类,k3个邻居属于C类,如果k1>k2>k3,那么x就属于A类,也就是说x的类别完全由邻居来推断出来。🌳


🚀3.算法步骤

🍀(1)计算测试对象到训练集中每个对象的距离

🍀(2)按照距离的远近排序

🍀(3)选取与当前测试对象最近的K的训练对象,作为该测试对象的邻居。

🍀(4)统计这K个邻居的类别概率

🍀(5)K个邻居里频率最高的类别,即为测试对象的类别。


🚀4.KNN算法的优缺点

优点:非常简单的分类算法没有之一,人性化,易于理解,易于实现,适合处理多分类问题,比如推荐用户。

缺点:属于懒惰算法,时间复杂度较高,因为需要计算未知样本到所有已知样本的距离,样本平衡度依赖高,当出现极端情况样本不平衡时,分类绝对会出现偏差。可解释性差,无法给出类似决策树那样的规则。向量的维度越高,欧式距离的区分能力就越弱。


🚀5.数据集

名称:Prostate_Cancer

提取链接:https://pan.baidu.com/s/1xv8r54qaLpH8RiMRkcrzyA 提取码:66hg 

数据集展示:

knn分类原理 knn分类算法_算法


🚀6.代码实现

from sklearn.neighbors import KNeighborsClassifier
import numpy as np
import random
import pandas as pd

def knn():
    K = 8
    data=pd.read_csv(r"C:\Users\Lenovo\Desktop\course\Prostate_Cancer.csv")
    n = len(data) // 3
    test_set = data[0:n]
    train_set = data[n:]
    train_set = np.array(train_set)
    test_set = np.array(test_set)
    A = [i for i in range(0, len(train_set))]
    B = [i for i in range(2, 10)]
    C = [i for i in range(n)]
    D = [1]
    x_train = train_set[A]
    x_train = x_train[:, B]
    y_train = train_set[A]
    y_train = y_train[:, D]
    x_test = test_set[C]
    x_test = x_test[:, B]
    y_test = test_set[C]
    y_test = y_test[:, D]
    # 训练模型
    model = KNeighborsClassifier(n_neighbors=K)
    model.fit(x_train, y_train)
    score = model.score(x_test, y_test)
    print("准确率为:", score)

if __name__=='__main__':
    knn()

knn分类原理 knn分类算法_算法_02

knn分类原理 knn分类算法_机器学习_03


🚀7.结果

k=8时候,结果为0.7575757575757576

k=5时候,结果为0.8181818181818182

总结:♨️♨️♨️

KNN是一种快速高效的分类算法,其逻辑简单,易于理解。但当训练数据集很大时,需要大量的存储空间,而且需要计算训练样本和测试样本的距离,计算量较大。个人认为,这是由于KNN是一种懒惰的学习法,简单的认为“物以类聚,人以群分”,但实际上,无论是人际交往还是数据事实,可能并不完全符合这个逻辑