[情报]K-近邻算法

楼主: nanpolend (不败杨)   2023-02-12 19:11:06
在图型识别领域中,最近邻居法(KNN算法,又译K-近邻算法)是一种用于分类和回
归的无母数统计方法[1]。在这两种情况下,输入包含特征空间(Feature Space)中的k
个最接近的训练样本。
在k-NN分类中,输出是一个分类族群。一个物件的分类是由其邻居的“多数表决”确定的
,k个最近邻居(k为正整数,通常较小)中最常见的分类决定了赋予该物件的类别。若k
= 1,则该物件的类别直接由最近的一个节点赋予。
在k-NN回归中,输出是该物件的属性值。该值是其k个最近邻居的值的平均值。
最近邻居法采用向量空间模型来分类,概念为相同类别的案例,彼此的相似度高,而可以
借由计算与已知类别案例之相似度,来评估未知类别案例可能的分类。
K-NN是一种基于实例的学习,或者是局部近似和将所有计算推迟到分类之后的惰性学习。
k-近邻算法是所有的机器学习算法中最简单的之一。
无论是分类还是回归,衡量邻居的权重都非常有用,使较近邻居的权重比较远邻居的权重
大。例如,一种常见的加权方案是给每个邻居权重赋值为1/ d,其中d是到邻居的距离。[
注 1]
邻居都取自一组已经正确分类(在回归的情况下,指属性值正确)的物件。虽然没要求明
确的训练步骤,但这也可以当作是此算法的一个训练样本集。
k-近邻算法的缺点是对资料的局部结构非常敏感。
K-平均算法也是流行的机器学习技术,其名称和k-近邻算法相近,但两者没有关系。
资料标准化可以大大提高该算法的准确性[2][3]。
作者: alan23273850   2023-02-12 19:31:00
[情报] 1+1=2
作者: JenniferLope (ㄚ)   2023-02-13 03:17:00
笑死 这啥
作者: astrofluket6   2023-02-13 04:28:00
2没坏

Links booklink

Contact Us: admin [ a t ] ucptt.com